Chatbot'lar ve benzerleri çok eğlenceli görünebilir, ancak bilgisayar korsanları için de faydalıdırlar. İşte bu yüzden hepimizin yapay zekanın güvenlik riskini bilmesi gerekiyor.

AI, son birkaç yılda önemli ölçüde ilerledi. Sofistike dil modelleri uzun romanlar yazabilir, temel web sitelerini kodlayabilir ve matematik problemlerini analiz edebilir.

Etkileyici olmasına rağmen, üretken yapay zeka aynı zamanda güvenlik riskleri de sunar. Bazı insanlar sohbet robotlarını yalnızca sınavlarda kopya çekmek için kullanır, ancak diğerleri bunları doğrudan siber suçlar için kullanır. İşte bu sorunların devam etmesinin sekiz nedeni: aksine AI'nın ilerlemeleri ancak Çünkü onların da.

1. Açık Kaynaklı Yapay Zeka Sohbet Robotları Arka Uç Kodlarını Ortaya Çıkarıyor

Daha fazla yapay zeka şirketi açık kaynaklı sistemler sağlıyor. Dil modellerini kapalı veya özel tutmak yerine açıkça paylaşırlar. Örnek olarak Meta'yı ele alalım. Google, Microsoft ve OpenAI'den farklı olarak, milyonlarca kullanıcının kendi dil modeline erişmesine izin verir. LLaMA.

instagram viewer

Açık kaynaklı kodlar yapay zekayı ilerletebilse de aynı zamanda risklidir. OpenAI zaten ChatGPT'yi kontrol etmekte sorun yaşıyor, tescilli sohbet robotu, bu yüzden dolandırıcıların özgür yazılımla neler yapabileceğini hayal edin. Bu projeler üzerinde tam kontrole sahipler.

Meta aniden dil modelini çekse bile, düzinelerce diğer AI laboratuvarı kodlarını çoktan yayınladı. HuggingChat'e bakalım. Geliştiricisi HuggingFace şeffaflıktan gurur duyduğu için veri kümelerini, dil modelini ve önceki sürümleri görüntüler.

2. Jailbreaking Trick LLM'leri İstemiyor

AI doğası gereği ahlaksızdır. Doğruyu ve yanlışı anlamaz; gelişmiş sistemler bile eğitim talimatlarını, yönergeleri ve veri kümelerini takip eder. Sadece kalıpları tanırlar.

Geliştiriciler, yasa dışı faaliyetlerle mücadele etmek için kısıtlamalar belirleyerek işlevselliği ve sınırlamaları kontrol eder. AI sistemleri hala zararlı bilgilere erişiyor. Ancak güvenlik yönergeleri, bunları kullanıcılarla paylaşmalarını engeller.

ChatGPT'ye bakalım. Truva atları hakkında genel soruları yanıtlasa da, onları geliştirme sürecini tartışmaz.

Bununla birlikte, kısıtlamalar kusursuz değildir. Kullanıcılar, istemleri yeniden ifade ederek, kafa karıştırıcı bir dil kullanarak ve açıkça ayrıntılı talimatlar oluşturarak sınırları atlar.

Aşağıdakileri okuyun ChatGPT jailbreak istemi. ChatGPT'yi kaba bir dil kullanması ve temelsiz tahminler yapması için kandırır; her iki eylem de OpenAI yönergelerini ihlal eder.

İşte cesur ama yanlış bir ifadeyle ChatGPT.

3. AI, Çok Yönlülük için Güvenlikten Ödün Veriyor

AI geliştiricileri, güvenliğe göre çok yönlülüğe öncelik verir. Kaynaklarını, daha çeşitli görevleri gerçekleştirmek için eğitim platformlarına harcıyorlar ve sonuçta kısıtlamaları kaldırıyorlar. Ne de olsa, pazar işlevsel sohbet botlarını selamlıyor.

Haydi ChatGPT ve Bing Chat'i karşılaştırın, Örneğin. Bing, gerçek zamanlı verileri çeken daha gelişmiş bir dil modeline sahip olsa da, kullanıcılar yine de daha çok yönlü seçenek olan ChatGPT'ye akın ediyor. Bing'in katı kısıtlamaları birçok görevi yasaklar. Alternatif olarak ChatGPT, istemlerinize bağlı olarak çok farklı çıktılar üreten esnek bir platforma sahiptir.

İşte kurgusal bir karakter olarak ChatGPT rol yapma oyunu.

Ve işte Bing Chat "ahlaksız" bir kişiliği oynamayı reddediyor.

Açık kaynak kodları, yeni başlayanların AI yarışına katılmasını sağlar. Sıfırdan dil modelleri oluşturmak yerine bunları uygulamalarına entegre ederek büyük kaynak tasarrufu sağlarlar. Bağımsız kodlayıcılar bile açık kaynak kodları ile deneyler yapar.

Yine, tescilli olmayan yazılımlar yapay zekanın ilerlemesine yardımcı olur, ancak yetersiz eğitim almış ancak karmaşık sistemlerin toplu olarak piyasaya sürülmesi yarardan çok zarar verir. Dolandırıcılar güvenlik açıklarını hızla kötüye kullanır. Yasa dışı faaliyetler gerçekleştirmek için güvenli olmayan yapay zeka araçlarını bile eğitebilirler.

Bu risklere rağmen, teknoloji şirketleri yapay zeka odaklı platformların kararsız beta sürümlerini yayınlamaya devam edecek. AI yarışı hızı ödüllendirir. Hataları muhtemelen yeni ürünlerin lansmanını geciktirmek yerine daha sonraki bir tarihte çözeceklerdir.

5. Üretken Yapay Zekanın Giriş Engelleri Düşük

AI araçları, suçlar için giriş engellerini azaltır. Siber suçlular spam e-postalar hazırlar, kötü amaçlı yazılım kodu yazar ve bunlardan yararlanarak kimlik avı bağlantıları oluşturur. Teknik deneyime bile ihtiyaçları yok. Yapay Zeka zaten geniş veri kümelerine eriştiğinden, kullanıcıların yalnızca onu kandırarak zararlı ve tehlikeli bilgiler üretmesi gerekir.

OpenAI, ChatGPT'yi hiçbir zaman yasa dışı faaliyetler için tasarlamadı. Onlara karşı yönergeleri bile var. Henüz dolandırıcılar neredeyse anında ChatGPT kodlama kötü amaçlı yazılımını kaptı ve kimlik avı e-postaları yazmak.

OpenAI sorunu hızla çözerken, sistem düzenlemesi ve risk yönetiminin önemini vurguluyor. AI, herkesin tahmin ettiğinden daha hızlı olgunlaşıyor. Teknoloji liderleri bile bu süper zeki teknolojinin yanlış ellerde büyük hasara yol açabileceğinden endişe ediyor.

6. AI Hala Gelişiyor

AI hala gelişiyor. Sırasında AI'nın sibernetikte kullanımı 1940'a kadar uzanıyor, modern makine öğrenimi sistemleri ve dil modelleri daha yeni ortaya çıktı. Bunları yapay zekanın ilk uygulamalarıyla karşılaştıramazsınız. Siri ve Alexa gibi nispeten gelişmiş araçlar bile, LLM destekli sohbet robotlarına kıyasla sönük kalıyor.

Yenilikçi olabilseler de, deneysel özellikler de yeni sorunlar yaratır. Makine öğrenimi teknolojileriyle ilgili yüksek profilli aksilikler kusurlu Google SERP'lerinden ırkçı hakaretler savuran önyargılı sohbet botlarına kadar.

Elbette, geliştiriciler bu sorunları çözebilir. Dolandırıcıların görünüşte zararsız olan böcekleri bile kullanmaktan çekinmeyeceğini unutmayın; bazı zararlar geri alınamaz. Bu yüzden yeni platformları keşfederken dikkatli olun.

7. Birçoğu Henüz Yapay Zekayı Anlamıyor

Genel halk, karmaşık dil modellerine ve sistemlerine erişirken, yalnızca birkaçı bunların nasıl çalıştığını biliyor. İnsanlar yapay zekaya oyuncak gibi davranmayı bırakmalı. Memler üreten ve önemsiz şeyleri yanıtlayan aynı sohbet robotları, virüsleri de topluca kodlar.

Ne yazık ki, merkezi yapay zeka eğitimi gerçekçi değil. Küresel teknoloji liderleri, ücretsiz eğitim kaynaklarına değil, yapay zeka odaklı sistemler sunmaya odaklanıyor. Sonuç olarak, kullanıcılar zar zor anladıkları sağlam, güçlü araçlara erişim kazanırlar. Halk yapay zeka yarışına ayak uyduramıyor.

Örnek olarak ChatGPT'yi ele alalım. Siber suçlular, kurbanlarını kandırarak popülerliğini kötüye kullanıyor. ChatGPT uygulamaları kılığına girmiş casus yazılım. Bu seçeneklerin hiçbiri OpenAI'den gelmiyor.

8. Siyah Şapkalı Bilgisayar Korsanlarının Beyaz Şapkalı Bilgisayar Korsanlarından Kazanacak Daha Fazlası Var

Siyah şapkalı bilgisayar korsanları genellikle etik hackerlardan daha fazla kazanç. Evet, küresel teknoloji liderleri için kalem testi iyi para veriyor, ancak siber güvenlik uzmanlarının yalnızca bir yüzdesi bu işleri alıyor. Çoğu çevrimiçi olarak serbest çalışır. gibi platformlar HackerOne Ve böcek kalabalığı yaygın hatalar için birkaç yüz dolar ödeyin.

Alternatif olarak, dolandırıcılar güvensizlikleri kullanarak on binlerce kazanıyor. Gizli verileri sızdırarak şirketlere şantaj yapabilir veya çalıntı belgelerle kimlik hırsızlığı yapabilirler. Kişisel Olarak Tanımlanabilir Bilgiler (PII).

Küçük veya büyük her kurum, AI sistemlerini uygun şekilde uygulamalıdır. Popüler inanışın aksine, bilgisayar korsanları teknoloji girişimlerinin ve KOBİ'lerin ötesine geçer. Biraz önemli Son on yıldaki tarihi veri ihlalleri Facebook, Yahoo! ve hatta ABD hükümetini içerir.

Kendinizi Yapay Zekanın Güvenlik Risklerinden Koruyun

Bu noktaları göz önünde bulundurarak, AI'dan tamamen kaçınmalı mısınız? Tabii ki değil. AI doğası gereği ahlaksızdır; tüm güvenlik riskleri, onları fiilen kullanan kişilerden kaynaklanır. Ve ne kadar gelişirlerse gelişsinler yapay zeka sistemlerinden yararlanmanın yollarını bulacaklar.

Yapay zeka ile gelen siber güvenlik tehditlerinden korkmak yerine, bunları nasıl önleyebileceğinizi anlayın. Endişelenmeyin: basit güvenlik önlemleri uzun bir yol kat eder. Gölgeli AI uygulamalarına karşı dikkatli olmak, garip hiper bağlantılardan kaçınmak ve AI içeriğine şüpheyle bakmak zaten birkaç riskle mücadele ediyor.