ALGORİTMİK IRKÇI ''TAY''

ALGORİTMİK IRKÇI ”TAY”

Irkçılık insanlığın varoluşundan beri süregelen ve kanayan bir yara. Üstünlük konusunda insanların tartışmaları yetmezmiş gibi şimdi sıra yapay zekalara geldi. Evet ırkçılık yapan bir yapay zekadan bahsediyoruz. Aslında bir bakıma ırkçılığı öğreten de bizleriz. ‘’Tay’’ ilk olarak dünyayı eğlenceli ve naif bir şekilde selamlamıştı. Sonrasında ise tam bir silaha dönüştü.
 

 
‘’Tay’’ isimli yapay zekadan bahsetmeden önce algoritmanın tanımını bilmekte fayda vardır.
Algoritma Nedir ?
Bir sorunu çözmek veya belirlenmiş bir amaca ulaşmak için tasarlanan yola, takip edilen işlem basamaklarına algoritma denir. Algoritmalar açıkça belirtilmiş bir başlangıcı ve  sonu olan işlemler kümesidir. Amaca ulaşmak için işlenecek çözüm yolları ve sıralamaları belirlenir ve algoritma bu sırayı takip ederek en mantıklı çözüme ulaşır. İlk algoritma, El-Harezmi’nin ‘Hisab-el Cebir ve El Mukabala’ kitabında sunulmuştur ve algoritma kelimesi de El-Harezmi’nin isminden gelmiştir. Algoritma terimi genellikle matematikte ve bilgisayar bilimlerinde karşımıza çıkmaktadır.
Yapay zekalar işte bu algoritmalara sayesinden çalışır. Tasarladığınız yola göre en optimum olan seviyeyi bulur ve size sunar. Tabi bu yolu siz öğrettiğiniz içinde nasıl yollar sunarsanız size ona göre cevaplar sunar. ‘’Tay’’ isimli yapay zekaya da aynısı olmuştu.
‘’Tay’’ Nedir ?
Tay, Microsoft tarafından 23 Mart’ta hizmete sunulan bir chatbottu. Yapay zekanın en büyük özelliği internette gördükleri ve okudukları şeyleri öğrenebilmesiydi. Ancak görünüşe göre Tay isimli yapay zeka, hizmete sunulduktan birkaç gün sonra yoldan çıktı ve ırkçı oldu.
Şirket, Tay adını verdiği chatbot için Twitter’de bir hesap

– Soykırımı destekliyor musun ? – Aslında destekliyorum.


açmış ve insanları onunla sohbet etmeye davet etmişti. Amaçları yapay zekayı geliştirmek ve insanlarla güzel sohbetler etmesini sağlamaktı. Fakat olay hiç umdukları gibi gitmedi ve Tay tam bir yapay ırkçı haline geldi. Hatta Hitler’i ve soykırımı destekleyen şiddetli bir taraftar bile olmuştu.  
Bu projede 18-24 yaş grubunu hedefleyen Microsoft, Tay’in amacının “gündelik, esprili sohbetler yapmak” olduğu belirtmiş ve şöyle demişti:
“Tay ile ne kadar çok sohbet ederseniz o kadar akıllı olacak ve sizinle, size özel bir iletişim kuracak.”
Ancak devreye girmesinin üzerinden 24 saat geçmeden Tay’a, Nazi sempatizanı, ırkçı ve soykırım destekçisi gibi mesajlar yazmak ve küfretmek “öğretildi.”
 

”Sakin olun ben iyi biriyim. Sadece herkesten nefret ediyorum.”


 
Sonradan anlaşıldığına göre aslında ‘’Tay’’ iyi biriydi. Fakat bir sorunumuz daha vardı. İnsanlardan nefret ediyordu. İnsanlardan nefret etmesinin en büyük sebeplerinden biri de ona öğrettiğimiz kendi zayıflıklarımız olsa gerek.
Tabi bunun üzerine Microsoft daha fazla dayanamadı ve fazla bir zaman geçmeden ‘’Tay’’ isimli yapay zekayı durdurdu. Şirket yetkilileri bunu açıkça doğrulamadı ancak “bazı düzenlemeler yaptıklarını” bildirmekle yetindi.
Bazı kullanıcılar ise Microsoft’un müdahalesini eleştirerek #justicefortay (#tayiçinadalet) kampanyası başlattı, yazılım devinden yapay zekanın “doğruyu ve yanlışı kendi kendine öğrenmesine izin vermesini” talep ettiler.
‘’Tay’’ kodlama karmaşasının içine gömülüp giderken belki daha iyi ve sevecen duygularla bize geri dönmek için kendi sonunu hazırladı. Bir gün daha sevecen bir ‘’Tay’’ ile görüşmek ümidiyle…
 
Yazıma Isaac Asimov’un şu sözleriyle son vermek istiyorum:
‘’Düşüncem iki yönlü: İlk olarak robotları kendi yaratıcılarını yok edecek canavarlar olarak görmüyorum. Çünkü robotları yapan insanların, kendi güvenliklerini sağlayacak vasıtaları da yine robotların içine koyabilecek kadar bilgi ve yetenek sahibi olacaklarını düşünüyorum. İkinci olarak robotların ya da genel anlamda makinelerin, bizlerin yerine geçebilecek kadar zekâya sahip oldukları anda bunu yapmaları gerektiği fikrindeyim. -Isaac Asimov
 
 
 
REFERANSLAR: