İster ChatGPT ister başka bir sohbet robotu kullanıyor olun, veri gizliliğinizi sorgulayan potansiyel tehditlerin farkında olmanız gerekir.

Chatbotlar yıllardır ortalıkta, ancak ChatGPT ve Google Bard gibi büyük dil modellerinin yükselişi, chatbot endüstrisine yeni bir hayat verdi.

Artık dünya çapında milyonlarca insan yapay zeka sohbet robotlarını kullanıyor ancak bu araçlardan birini denemek istiyorsanız aklınızda bulundurmanız gereken bazı önemli gizlilik riskleri ve endişeleri var.

1. Veri toplama

Çoğu insan chatbotları sadece merhaba demek için kullanmıyor. Modern sohbet robotları, karmaşık soruları ve istekleri işlemek ve bunlara yanıt vermek için tasarlanmıştır; kullanıcılar genellikle istemlerine çok fazla bilgi ekler. Sadece basit bir soru sorsanız bile, bunun konuşmanızın ötesine geçmesini gerçekten istemezsiniz.

Buna göre OpenAI'nin destek bölümüChatGPT sohbet günlüklerini istediğiniz zaman silebilirsiniz ve bu günlükler 30 gün sonra OpenAI sistemlerinden kalıcı olarak silinecektir. Ancak şirket, zararlı veya uygunsuz içerik nedeniyle işaretlenmişse belirli sohbet günlüklerini saklayacak ve inceleyecektir.

Bir diğer popüler yapay zeka sohbet robotu Claude da önceki konuşmalarınızı takip ediyor. Anthropic'in destek merkezi Claude'un "zaman içinde size tutarlı bir ürün deneyimi sağlamak için kontrollerinize uygun olarak üründeki istemlerinizi ve çıktılarınızı" takip ettiğini belirtiyor. Sen Claude ile olan konuşmalarınızı silebilir, böylece ne hakkında konuştuğunuzu unutur, ancak bu Anthropic'in günlüklerinizi anında sileceği anlamına gelmez. sistemler.

Bu elbette şu soruyu akla getiriyor: Verilerim tutuluyor mu tutulmuyor mu? ChatGPT veya diğer sohbet robotları verilerimi kullanıyor mu?

Ancak endişeler burada bitmiyor.

ChatGPT Nasıl Öğrenir?

Bilgi sağlamak için büyük dil modelleri büyük miktarda veriyle eğitilir. Buna göre Bilim OdağıChatGPT-4, eğitim süresi boyunca tek başına 300 milyar kelimelik bilgiyle beslendi. Bu doğrudan birkaç ansiklopediden alınmamıştır. Bunun yerine, chatbot geliştiricileri modellerini eğitmek için internetten gelen çok sayıda bilgiyi kullanıyor. Bu, kitaplardan, filmlerden, makalelerden, Wikipedia girişlerinden, blog yazılarından, yorumlardan ve hatta inceleme sitelerinden gelen verileri içerebilir.

Chatbot geliştiricisinin gizlilik politikasına bağlı olarak yukarıda bahsedilen kaynaklardan bazılarının eğitimde kullanılamayabileceğini unutmayın.

Birçoğu ChatGPT'yi gizlilik açısından bir kabus olduğunu iddia ederek eleştirdi. ChatGPT'ye güvenilemez. Peki durum neden böyle?

İşte bu noktada işler biraz bulanıklaşıyor. ChatGPT-3.5'e doğrudan ürün incelemelerine veya makale yorumlarına erişimi olup olmadığını sorarsanız kesin bir olumsuz yanıt alırsınız. Aşağıdaki ekran görüntüsünde görebileceğiniz gibi GPT-3.5, eğitiminde kullanıcı makalesi yorumlarına veya ürün incelemelerine erişim izni verilmediğini belirtiyor.

Bunun yerine, "Eylül 2021'e kadar web siteleri, kitaplar, makaleler ve halka açık diğer yazılı materyaller dahil olmak üzere internetten alınan çok çeşitli metinler" kullanılarak eğitildi.

Peki GPT-4 için de durum aynı mı?

GPT-4'ü sorduğumuzda chatbot'un eğitim döneminde "OpenAI'nin belirli kullanıcı incelemelerini, kişisel verileri veya makale yorumlarını kullanmadığı" söylendi. Ek olarak GPT-4 bize yanıtlarının "üzerinde eğitim verildiği, esas olarak kitaplar, makaleler ve internetteki diğer metinlerden oluşan verilerdeki kalıplardan" oluşturulduğunu söyledi.

Daha detaylı incelediğimizde GPT-4, bazı sosyal medya içeriklerinin aslında eğitim verilerine dahil edilebileceğini ancak içerik oluşturucuların her zaman anonim kalacağını iddia etti. GPT-4 özellikle şunu belirtti: "Reddit gibi platformlardan gelen içerik eğitim verilerinin bir parçası olsa bile, [bunun] belirli yorumlara, gönderilere veya bir kişiye bağlanabilecek herhangi bir veriye erişimi yoktur kullanıcı."

GPT-4'ün cevabının dikkat çeken bir diğer kısmı ise şu şekilde: "OpenAI, kullanılan her veri kaynağını açıkça listelemedi." İle ilgili Elbette OpenAI için 300 milyar kelimelik kaynakları listelemek zor olurdu, ancak bu durum spekülasyon.

bir Ars Technica makalesiChatGPT'nin "izin alınmadan elde edilen kişisel bilgileri" topladığı belirtildi. Aynı makalede, Bağlamsal bütünlükten bahsedilmişti; bu kavram, birinin bilgilerinin yalnızca bulunduğu bağlamda kullanılması anlamına geliyordu başlangıçta kullanıldı. ChatGPT bu bağlamsal bütünlüğü ihlal ederse insanların verileri risk altında olabilir.

Buradaki endişe verici bir diğer nokta ise OpenAI'nin Genel Veri Koruma Yönetmeliği (GDPR). Bu, vatandaşların verilerinin korunması amacıyla Avrupa Birliği tarafından uygulanan bir düzenlemedir. İtalya ve Polonya dahil olmak üzere çeşitli Avrupa ülkeleri, GDPR uyumluluğuna ilişkin endişeler nedeniyle ChatGPT'ye yönelik soruşturmalar başlattı. Hatta gizlilik endişeleri nedeniyle ChatGPT İtalya'da kısa bir süreliğine bile yasaklandı.

OpenAI geçmişte planlanan yapay zeka düzenlemeleri nedeniyle AB'den çekilmekle tehdit etmişti, ancak bu daha sonra geri çekildi.

ChatGPT günümüzün en büyük yapay zeka sohbet robotu olabilir, ancak sohbet robotu gizlilik sorunları bu sağlayıcıyla başlayıp bitmiyor. Yetersiz bir gizlilik politikasına sahip şüpheli bir chatbot kullanıyorsanız, konuşmalarınız kötüye kullanılabilir veya eğitim verilerinde son derece hassas bilgiler kullanılabilir.

2. Veri hırsızlığı

Herhangi bir çevrimiçi araç veya platform gibi, sohbet robotları da siber suçlara karşı savunmasızdır. Bir chatbot, kullanıcıları ve verilerini korumak için elinden geleni yapsa bile, bilgili bir bilgisayar korsanının dahili sistemlerine sızmayı başarma şansı her zaman vardır.

Belirli bir sohbet robotu hizmeti, premium ödeme ayrıntılarınız gibi hassas bilgilerinizi saklıyorsa abonelik, iletişim verileri veya benzeri bilgiler, bir siber saldırı durumunda çalınabilir ve istismar edilebilir. meydana gelmek.

Bu, özellikle geliştiricilerinin yeterli güvenlik korumasına yatırım yapmadığı, daha az güvenli bir sohbet robotu kullanıyorsanız geçerlidir. Yalnızca şirketin dahili sistemleri saldırıya uğramakla kalmaz, aynı zamanda oturum açma uyarıları veya kimlik doğrulama katmanı yoksa kendi hesabınızın da ele geçirilmesi riski vardır.

Yapay zeka sohbet robotları artık bu kadar popüler olduğundan, siber suçlular doğal olarak bu sektörü dolandırıcılık amacıyla kullanmaya akın etti. Sahte ChatGPT web siteleri ve eklentileri, OpenAI'nin chatbot'unun ana akım haline gelmesinden bu yana büyük bir sorun haline geldi. 2022'nin sonlarına doğru, insanlar dolandırıcılığa kanıyor ve meşruiyet kisvesi altında kişisel bilgileri veriyorlar. güven.

Mart 2023'te MUO bir rapor yayınladı: Facebook girişlerini çalan sahte ChatGPT Chrome uzantısı. Eklenti, yüksek profilli hesapları hacklemek ve kullanıcı çerezlerini çalmak için Facebook arka kapısından yararlanabilir. Bu, bilinmeyen kurbanları kandırmak için tasarlanmış çok sayıda sahte ChatGPT hizmetinin yalnızca bir örneğidir.

3. Kötü Amaçlı Yazılım Enfeksiyonu

Farkında olmadan şaibeli bir chatbot kullanıyorsanız, chatbotun size kötü amaçlı web sitelerine bağlantılar sağladığını görebilirsiniz. Belki chatbot sizi cazip bir hediye konusunda uyardı veya açıklamalarından biri için kaynak sağladı. Hizmetin operatörlerinin yasa dışı niyetleri varsa, platformun tüm amacı, kötü amaçlı bağlantılar yoluyla kötü amaçlı yazılım ve dolandırıcılık yaymak olabilir.

Alternatif olarak, bilgisayar korsanları meşru bir chatbot hizmetini tehlikeye atabilir ve bunu kötü amaçlı yazılım yaymak için kullanabilir. Bu chatbot çok insansa binlerce, hatta milyonlarca kullanıcı bu kötü amaçlı yazılıma maruz kalacak. Sahte ChatGPT uygulamaları Apple App Store'da bile yer alıyorbu yüzden dikkatli yürümek en iyisidir.

Genel olarak, daha önce bir chatbotun sağladığı bağlantılara asla tıklamamalısınız. bir bağlantı kontrol sitesi aracılığıyla çalıştırmak. Bu rahatsız edici görünebilir ancak yönlendirildiğiniz sitenin kötü amaçlı bir tasarıma sahip olmadığından emin olmak her zaman en iyisidir.

Ayrıca, öncelikle meşruiyetlerini doğrulamadan herhangi bir chatbot eklentisini ve uzantısını asla yüklememelisiniz. İyi bir şekilde incelenip incelenmediğini görmek için uygulama hakkında biraz araştırma yapın ve ayrıca şüpheli bir şey bulup bulmadığınızı görmek için uygulamanın geliştiricisinde bir arama yapın.

Chatbotlar Gizlilik Sorunlarından Korunmuyor

Günümüzde çoğu çevrimiçi araç gibi, sohbet robotları da olası güvenlik ve gizlilik tehlikeleri nedeniyle defalarca eleştirildi. İster kullanıcı güvenliği söz konusu olduğunda işin kolayına kaçan bir sohbet robotu sağlayıcısı olsun, isterse devam eden siber saldırı ve dolandırıcılık riskleri olsun, Chatbot hizmetinizin hakkınızda ne topladığını ve yeterli güvenlik sağlanıp sağlanmadığını bilmeniz çok önemlidir. miktar.