AI duyarlılığı konusundaki tartışmalar yeni bir şey değil, ancak Google'ın AI LaMDA'sı hakkındaki haberler alevleri alevlendirdi. Bir mühendis, botun bilincinin yerinde olduğunu, hatta bir ruhu olduğunu iddia ettikten sonra, bazı tanıdık sorular yeniden gündeme geldi.
Yapay zeka, LaMDA gibi gerçekten duyarlı veya kendinin farkında olabilir mi ve eğer öyleyse, bunu nasıl anlayabilirsiniz? Önemli mi?
LaMDA Nedir?
Language Model for Dialogue Applications'ın kısaltması olan LaMDA, ilk olarak 2021'de Google'ın geliştirici konferansında ortaya çıktı. Gelişmiş AI sisteminin, diğer daha küçük sohbet robotlarının oluşturulmasına yardımcı olması bekleniyor. Google bunu ilk tanıttığında, Google Asistan ve Arama gibi hizmetlerin daha insani veya en azından doğal hissetmesine yardımcı olarak onu her şeye entegre etmeyi planladığını duyurdu.
Google mühendisi Blake Lemoine, nefret söylemi kullanıp kullanmadığını öğrenmek için LaMDA ile konuştuğunda, farklı bir izlenim edindi. Lemoine, LaMDA'nın duyarlı olduğunu iddia etti ve bunun bir bot olduğunu bilmeseydi, onun sekiz yaşında bir çocuk olduğunu düşünürdü.
LaMDA ile yaptığı görüşmelerden sonra, Lemoine bilinçli olduğunu kanıtlamaya ve yasal hakları olduğuna inandığı şeyleri savunmaya çalıştı. Buna cevaben Google, gizlilik anlaşmalarını ihlal ettiği için Lemoine'i ücretli idari izne çıkardı.
LaMDA Gerçekten Duyarlı mı?
Peki, LaMDA gerçekten duyarlı mı? Konuya ağırlık veren uzmanların çoğu şüpheci. LaMDA, internetten trilyonlarca kelimeyi analiz eden son derece gelişmiş bir AI sohbet platformudur, bu nedenle gerçek bir insan gibi ses çıkarma konusunda yeteneklidir.
Bu, Google'ın yapay zekalarından birinin insanları insan olduğuna inandırdığı ilk sefer değil. 2018'de Google, bir masa ayırtmak için bir restoranı arayarak Duplex AI'sını gösterdi. Diğer taraftaki çalışan hiçbir zaman bir kişiyle konuştuklarından şüphe duymadı.
Duyarlılığı tanımlamak zor olsa da çoğu insan AI'nın bu noktaya ulaştığından şüphe henüz. Bununla birlikte, önemli soru, LaMDA'nın gerçekten duyarlı olup olmadığı değil, insanları öyle sanmaları için kandırabiliyorsa ne fark eder ki olabilir.
LaMDA'nın Olası Yasal Etkileri
LaMDA durumu birçok yasal ve etik soruyu gündeme getiriyor. İlk olarak, bazı insanlar Google'ın bu konuda konuşmak için Lemoine'i izne ayırmanın doğru olup olmadığını sorgulayabilir.
New York İş Kanunu'nun 740. Bölümüne göre, ihbarcı korumaları, çalışanları bu tür durumlara karşı korur. işverenlerinin uygulamalarının yasaları çiğnediğini veya kamu için önemli bir risk oluşturduğunu düşünüyorlarsa sonuçları Emniyet. LaMDA'nın sözde duyarlılığı bu yasal gerekliliği tam olarak karşılamıyor, ama yapmalı mı?
AI haklarını vermek zor bir konudur. AI yapabilirken bir şeyler yarat ve insan gibi görün, bu makinelerin yasal korumaları varsa bazı karmaşık durumlarla karşılaşabilirsiniz. Yasal haklar, AI'yı etkilemeyen ve adaleti karmaşıklaştıran ödüller ve cezalar etrafında çalışır.
Kendi kendini süren bir araba bir yayaya çarparsa, yasa ona bir insan gibi davranıyorsa AI suçlu mudur? Ve eğer öyleyse, yapay zekayı bir insan gibi teknik olarak cezalandıramayacağınız için kurbana kesinlikle adalet vermiyor.
LaMDA ve benzeri AI sohbet robotlarında ortaya çıkan bir diğer soru da güvenlikleridir. Bu botlar inandırıcı bir şekilde gerçek görünüyorsa, insanlar onlara daha fazla güvenebilir ve onlara vermeye istekli olabilir. daha hassas bilgiler. Bu, eğer bu teknoloji yanlış ellere geçerse, bir dizi gizlilik ve güvenlik endişesine kapı açar.
Yapay Zeka Karmaşık Etik Sorular Sunar
LaMDA gibi yapay zekalar daha sofistike ve gerçekçi olmaya devam ediyor. Bu eğilim büyüdükçe, şirketler ve kanun yapıcılar, yapay zekaya nasıl davrandıklarını ve bu kararların adaleti ve güvenliği nasıl etkileyebileceğini yeniden değerlendirmelidir.
Halihazırda, Google'ın LaMDA AI'sı duyarlı olmayabilir, ancak insanları böyle düşünmeleri için kandırmak için yeterince iyi, bu da bazı alarmları tetiklemeli.