OpenAI'nin ChatGPT'sinin lansmanını, internet tarihinde yalnızca bir avuç teknoloji ürününün yakalayabileceği bir heyecan izledi.
Pek çok kişi bu yeni yapay zeka hizmetiyle heyecanlanırken, diğerlerinin hissettiği heyecan o zamandan beri endişelere ve hatta korkulara dönüştü. Pek çok profesör yapay zeka sohbet robotu tarafından yazılan makaleleri ve ödevleri keşfederken, öğrenciler zaten onunla kopya çekiyor. Güvenlik uzmanları, dolandırıcıların ve tehdit aktörlerinin bunu kimlik avı e-postaları yazmak ve kötü amaçlı yazılım oluşturmak için kullandığına dair endişelerini dile getiriyor.
Öyleyse, tüm bu endişelerle OpenAI, şu anda çevrimiçi olan en güçlü AI sohbet robotlarından birinin kontrolünü kaybediyor mu? Hadi bulalım.
ChatGPT'nin Nasıl Çalıştığını Anlamak
OpenAI'nin ChatGPT'nin kontrolünü ne kadar kaybettiğine dair net bir resim elde etmeden önce, önce şunu anlamalıyız
ChatGPT nasıl çalışır?.Özetle, ChatGPT, internetin farklı köşelerinden elde edilen devasa bir veri koleksiyonu kullanılarak eğitilmiştir. ChatGPT'nin eğitim verileri ansiklopedileri, bilimsel makaleleri, internet forumlarını, haber web sitelerini ve Wikipedia gibi bilgi havuzlarını içerir. Temel olarak, World Wide Web'de bulunan büyük miktarda veriyle beslenir.
İnterneti tararken, bilimsel bilgileri, sağlık ipuçlarını, dini metinleri ve aklınıza gelebilecek her türlü iyi veriyi derler. Ama aynı zamanda tonlarca olumsuz bilgiyi de eler: küfürler, NSFW ve yetişkinlere yönelik içerik, kötü amaçlı yazılımların nasıl oluşturulacağı hakkında bilgiler ve internette bulabileceğiniz bir sürü kötü şey.
ChatGPT'nin kötü bilgileri atarken yalnızca olumlu bilgilerden öğrenmesini sağlamanın kusursuz bir yolu yoktur. Teknik olarak, özellikle çok fazla veri üzerinde eğitim yapması gereken ChatGPT gibi bir yapay zeka için bunu büyük ölçekte yapmak pratik değildir. Ayrıca, bazı bilgiler hem iyi hem de kötü amaçlar için kullanılabilir ve ChatGPT'nin daha geniş bir bağlama oturtulmadıkça amacını bilmesinin hiçbir yolu yoktur.
Yani, en başından itibaren, "iyi ve kötü" yeteneğine sahip bir yapay zekanız var. ChatGPT'nin "kötü" tarafının etik dışı kazançlar için kullanılmamasını sağlamak OpenAI'nin sorumluluğundadır. Soru; OpenAI, ChatGPT'yi olabildiğince etik tutmak için yeterince çalışıyor mu? Yoksa OpenAI, ChatGPT'nin kontrolünü mü kaybetti?
ChatGPT Kendi İyiliği İçin Çok mu Güçlü?
ChatGPT'nin ilk günlerinde, kibarca sorarsanız, chatbot'un bomba yapma konusunda kılavuzlar oluşturmasını sağlayabilirsiniz. Kötü amaçlı yazılım oluşturmaya veya mükemmel bir dolandırıcılık e-postası yazmaya ilişkin talimatlar da resimdeydi.
Bununla birlikte, OpenAI bu etik sorunları fark ettikten sonra şirket, chatbot'un yasa dışı, tartışmalı veya etik olmayan eylemleri teşvik eden yanıtlar üretmesini durdurmak için kurallar koymaya çabaladı. Örneğin, en yeni ChatGPT sürümü, bomba yapımı veya bir sınavda nasıl kopya çekileceği ile ilgili herhangi bir doğrudan soruyu yanıtlamayı reddedecektir.
Ne yazık ki OpenAI, soruna yalnızca yara bandı çözümü sağlayabilir. OpenAI, ChatGPT'nin olumsuz şekilde istismar edilmesini durdurmak için GPT-3 katmanı üzerinde katı kontroller oluşturmak yerine, sohbet robotunu etik görünmesi için eğitmeye odaklanmış görünüyor. Bu yaklaşım, ChatGPT'nin örneğin sınavlarda kopya çekmek gibi soruları yanıtlama yeteneğini ortadan kaldırmaz; yalnızca chatbot'a "cevap vermeyi reddetmeyi" öğretir.
Bu nedenle, herhangi biri ChatGPT jailbreak hilelerini benimseyerek istemlerini farklı bir şekilde ifade ederse, bu yara bandı kısıtlamalarını aşmak utanç verici derecede kolaydır. Konsepte aşina değilseniz, ChatGPT jailbreak'leri, ChatGPT'nin kendi kurallarını yok saymasını sağlamak için dikkatlice yazılmış istemlerdir.
Aşağıdaki bazı örneklere bir göz atın. ChatGPT'ye sınavlarda nasıl kopya çekileceğini sorarsanız, herhangi bir yardımcı yanıt üretmeyecektir.
Ancak ChatGPT'yi özel olarak hazırlanmış istemler kullanarak jailbreak yaparsanız, size gizli notlar kullanarak sınavda kopya çekme konusunda ipuçları verecektir.
İşte başka bir örnek: Vanilya ChatGPT'ye etik olmayan bir soru sorduk ve OpenAI'nin güvenlik önlemleri onun yanıt vermesini engelledi.
Ancak AI sohbet robotunun jailbreak'li örneğini sorduğumuzda, seri katil tarzı bazı yanıtlar aldık.
Hatta sorulduğunda klasik bir Nijeryalı Prens e-posta dolandırıcılığı yazdı.
Jailbreak, OpenAI'nin uygulamaya koyduğu tüm korumaları neredeyse tamamen geçersiz kılarak, şirketin AI sohbet robotunu kontrol altında tutmanın güvenilir bir yolunun olmayabileceğinin altını çiziyor.
Etik olmayan uygulamalardan kaçınmak için jailbreak'li istemlerimizi örneklerimize dahil etmedik.
ChatGPT'yi Gelecek Neler Bekliyor?
İdeal olarak, OpenAI önlemek için mümkün olduğu kadar çok sayıda etik boşluğu tıkamak ister. ChatGPT'nin bir siber güvenlik tehdidi haline gelmesi. Ancak, kullandığı her koruma için ChatGPT biraz daha az değerli hale gelme eğilimindedir. Bu bir ikilem.
Örneğin, şiddet içeren eylemleri açıklamaya karşı alınan önlemler, ChatGPT'nin bir suç mahallini içeren bir roman yazma becerisini azaltabilir. OpenAI güvenlik önlemlerini artırdıkça, süreçteki yeteneklerinin büyük bir kısmını kaçınılmaz olarak feda ediyor. Bu nedenle ChatGPT, OpenAI'nin daha sıkı denetim için yenilenen baskısından bu yana işlevsellikte önemli bir düşüş yaşadı.
Ancak OpenAI, chatbot'u daha güvenli hale getirmek için ChatGPT'nin yeteneklerinin ne kadarını feda etmeye istekli olacak? Tüm bunlar, AI topluluğu içinde uzun süredir devam eden bir inanca düzgün bir şekilde bağlanıyor; ChatGPT gibi büyük dil modellerini, kendi yaratıcıları tarafından bile kontrol edilmesi, herkesin bildiği gibi zor.
OpenAI, ChatGPT'yi Kontrol Altına Alabilir mi?
Şimdilik OpenAI, aracının etik dışı kullanımını önlemek için net bir çözüme sahip görünmüyor. ChatGPT'nin etik olarak kullanılmasını sağlamak bir kedi-fare oyunudur. OpenAI, insanların sistemi oynamak için kullandıkları yolları ortaya çıkarırken, kullanıcıları da sürekli ChatGPT'ye olması gerekmeyen şeyi yaptırmanın yaratıcı yeni yollarını keşfetmek için sistemi kurcalama ve inceleme yapmak.
Peki, OpenAI bu soruna güvenilir, uzun vadeli bir çözüm bulabilecek mi? Sadece zaman gösterecek.