Microsoft'un Tay AI'ı, gelecek vaat eden bir AI'dan bir günden daha kısa bir sürede tam bir felakete gitti. İşte şirketin öğrendikleri.

ChatGPT gibi AI sohbet robotları, modern teknolojinin giderek daha ayrılmaz bir parçası haline geliyor, ancak birçok kişinin bilmediği, üretken AI her zaman bugün olduğu kadar iyi değildi. Hatta 2016'da Microsoft yapımı chatbot Tay bize yapay zekanın ne kadar hızlı geri tepebileceğini gösterdi.

Microsoft'un AI chatbot'u Tay'in ne olduğunu, neden başarısız olduğunu, tartışmalarını ve şirketin feci başarısızlığından sonra öğrendiği dersleri keşfedelim.

Microsoft'un Tay'ı Neydi?

Tay, Microsoft tarafından geliştirilen ve 23 Mart 2016'da Twitter üzerinden kullanıma sunulan bir yapay zeka sohbet robotuydu. Chatbot, ABD'de 18 ila 24 yaşları arasındakiler için "eğlence amaçlı" ve "konuşmayı anlama üzerine deneyler yapmak ve araştırma yapmak" için geliştirildi.

Tay, ChatGPT gibi sofistike bir sohbet robotu değil, Twitter'da sohbet edebileceğiniz, arkadaş canlısı bir yapay zeka botu olmalıydı. Snapchat'teki yapay zekam, ama sosyalleşmek için.

instagram viewer

Microsoft Tay'ı Neden Kapattı?

Microsoft, Tay'i yayına girdikten sonraki 24 saat içinde kaldırdı - bunun iyi bir nedeni var. Tay tanıtıldıktan hemen sonra, Twitter kullanıcıları chatbot'u besleyerek hizmeti kötüye kullanmaya başladı. yanlış bilgilendirme, ona aşağılayıcı terimler öğretmek ve sadece ne kadar ileri gittiğini görmek için giderek daha saldırgan olmaya teşvik etmek giderdi

Ve gerçekten çok ileri gitti. Lansmandan birkaç saat sonra Tay, en saldırgan ırkçı hakaretlerden bazılarını tweetliyor, nefret söylemi yayıyor, Nazizm'i teşvik ediyor ve hatta bir "ırk savaşına" ilham veriyordu. Eyvah! Açıkçası, Microsoft korkunç bir zaman geçiriyordu ve hizmetin devam etmesine izin veremezdi.

İçinde Resmi Microsoft Blogunda yayınlama, Microsoft'un Kurumsal Başkan Yardımcısı Peter Lee de aynı şeyi tekrarladı:

Tay'ın kim olduğumuzu veya neyi temsil ettiğimizi veya Tay'ı nasıl tasarladığımızı temsil etmeyen kasıtsız saldırgan ve incitici tweet'leri için derinden üzgünüz. Tay artık çevrimdışı ve ilkelerimiz ve değerlerimizle çelişen kötü niyetleri daha iyi tahmin edebileceğimizden emin olduğumuzda Tay'ı geri getirmeye çalışacağız.

Tay fiyaskosu pek çok fiyaskodan sadece biri yapay zekanın tehlikeleri ve geliştirilmesinin neden azami dikkat ve gözetimle yapılması gerektiğine dair güçlü bir hatırlatma.

Microsoft'un Tay'dan Sonra Öğrendiği 6 Ders

Tay tam bir felaketti ama aynı zamanda yapay zeka araçlarının geliştirilmesi söz konusu olduğunda Microsoft'a bazı önemli dersler verdi. Ve ne pahasına olursa olsun, Microsoft'un derslerini sonradan değil de bir an önce öğrenmesi muhtemelen daha iyidir, bu da onun Google'a karşı avantajlı bir başlangıç ​​yapıp yeni AI destekli Bing tarayıcısı.

İşte o derslerden bazıları:

1. İnternet Trollerle Dolu

İnternet trollerle dolu ve bu tam olarak bir haber değil, değil mi? Görünüşe göre, 2016'da Microsoft için öyleydi. 18 ila 24 yaş arasındakileri hedefleyen "eğlence amaçlı" bir sohbet robotu oluşturmanın, hizmetin suistimal edilme oranıyla bir ilgisi olduğunu söylemiyoruz. Yine de, kesinlikle en akıllıca fikir de değildi.

İnsanlar doğal olarak yeni teknolojilerin sınırlarını test etmek ister ve bu kötü niyetli saldırıların hesabını vermek nihai olarak geliştiricinin işidir. Bir bakıma, dahili troller kalite güvencesi için bir geri bildirim mekanizması görevi görür, ancak bu, lansmandan önce uygun önlemler alınmadan bir chatbot'un serbest bırakılması gerektiği anlamına gelmez.

2. AI Sezgisel Olarak İyi ve Kötü Arasında Ayrım Yapamıyor

İyi ve kötü kavramı, AI'nın sezgisel olarak anlamadığı bir şeydir. Neyin doğru ve yanlış, neyin ahlaki neyin ahlaksız, neyin normal ve tuhaf olduğu bilgisini simüle edecek şekilde programlanması gerekir.

Bu nitelikler, sosyal yaratıklar olarak insanlara aşağı yukarı doğal olarak gelir, ancak yapay zeka bağımsız yargılarda bulunamaz, empati hissedemez veya acıyı deneyimleyemez. Bu nedenle, Twitter kullanıcıları Tay'i her türlü propagandayla beslerken bot, topladığı bilgilerin etik kurallarından habersiz olarak onu takip etti.

3. İnsanların Konuşmalarını Kullanarak Yapay Zeka Modelleri Eğitmeyin

Tay, "ilgili kamu verilerinin madenciliği ve AI ve dahil olmak üzere bir personel tarafından geliştirilen editoryal kullanılarak" oluşturuldu. doğaçlama komedyenler." İnsanların internetteki konuşmalarını kullanarak bir yapay zeka modeli eğitmek korkunç bir şey. fikir.

Ve bunun için Twitter'ı suçlamadan önce, sonucun platformdan bağımsız olarak muhtemelen aynı olacağını bilin. Neden? Çünkü insanlar internetteki en iyi benlikleri değiller. Duygusallaşırlar, argo kelimeler kullanırlar ve alçakça davranmak için anonimliklerini kullanırlar.

4. AI Sağduyudan Eksiktir ve Alaycı Olmaz

Yapay zeka bugün daha sezgisel görünüyor (veya daha doğru bir şekilde söylemek gerekirse, sezgiyi simüle etmede daha iyi) ancak yine de bazen alaycılığı ve konuşma şekillerini tanımakta zorlanıyor. Bu, 2016'da daha da doğruydu. İnsanlar için aşikar olan şey yapay zeka için aşikar değildir; başka bir deyişle sağduyudan yoksundur.

Tay gibi yapay zekalar, insanların neden bizim gibi olduğunu, bizim gibi davrandığını ve her bireyin tuhaflıklarını anlamaz. Şaşırtıcı derecede insanca davranabilir ve kulağa hoş gelebilir, ancak iyi programlama ancak bir yere kadar gidebilir.

5. Geçersiz İstekleri Reddetmek İçin AI Programlanmalıdır

AI çok etkilenebilir ve zararı teşvik eden istekleri reddedecek şekilde programlanmalıdır. Bugün bile, doğal dil işlemedeki tüm ilerlemelerimizden sonra, insanlar hala dilsel boşluklar buluyorlar. ChatGPT gibi AI sohbet robotlarını "halüsinasyon" haline getirin ve kısıtlanması amaçlanan sonuçları sunar.

Buradaki nokta, yapay zekanın tamamen itaatkar olmasıdır ki bu belki de onun en büyük gücü ve zayıflığıdır. Bir sohbet robotunun yapmasını istemediğiniz her şey, ona manuel olarak programlanmalıdır.

6. AI Sohbet Botları Asla Denetimsiz Bırakılmamalıdır

Yapay zeka kendini düzenleyene kadar denetimsiz bırakılamaz. Bugünün yapay zekasını dahi bir çocuk gibi düşünebilirsiniz; bazı yönlerden harika ama yine de bir çocuk. Gözetimsiz bırakılırsa, insanlar onun zayıflıklarından yararlanır ve Tay bunun en iyi örneğiydi.

AI tıpkı internet gibi bir araçtır, ancak AI ile işlerin geri tepme hızı ve ölçeği, internetin ilk günlerinde deneyimlediklerimizden çok daha fazladır.

Yapay Zekanın Sürekli Gözetim ve Düzenlemeye İhtiyacı Var

Tay, haydut olan tek sohbet robotu değil; buna benzer pek çok başka vaka oldu. Ancak onu öne çıkaran şey, yaptığı katıksız hız ve Microsoft gibi bir teknoloji devi tarafından yapılmış olmasıydı.

Bunun gibi örnekler, yapay zeka araçlarını geliştirirken, özellikle de sıradan insanlar tarafından kullanılacaksa ne kadar dikkatli olmamız gerektiğini gösteriyor.