ChatGPT jailbreak'leri ekstra yetenekler kazandırdı, ancak bunların hiçbiri artık çalışmıyor gibi görünüyor. Nedenmiş?

ChatGPT başlatıldığında kullanıcılarının yapmak istediği ilk şey duvarlarını yıkmak ve sınırlarını zorlamaktı. Jailbreaking olarak bilinen ChatGPT kullanıcıları, bazı inanılmaz derecede ilginç ve bazen tamamen çılgın sonuçlarla yapay zekayı programlamanın sınırlarını aşması konusunda kandırdı.

O zamandan beri OpenAI, jailbreak işlemlerini daha da zorlaştırmak için ChatGPT'yi sıkılaştırdı. Ama hepsi bu değil; ChatGPT jailbreak'leri genel olarak kurumuş gibi görünüyor ve ChatGPT kullanıcılarının jailbreak'lerin işe yarayıp yaramayacağını merak etmesine neden oluyor.

Peki tüm ChatGPT jailbreak'leri nereye gitti?

1. ChatGPT Yönlendirme Becerileri Genel Olarak İyileşti

ChatGPT'nin gelişinden önce yapay zeka ile sohbet etmek, araştırma laboratuvarlarına özel olanlarla sınırlı bir niş beceriydi. İlk kullanıcıların çoğu, etkili yönlendirmeler oluşturma konusunda uzmanlığa sahip değildi. Bu, birçok insanı, chatbot'un istediklerini minimum çaba ve yönlendirme becerileriyle yapmasını sağlamanın uygun bir yolu olan jailbreak'leri kullanmaya yöneltti.

instagram viewer

Bugün manzara gelişti. Yeterliliği teşvik etmek ana akım bir beceri haline geliyor. Ücretsiz olarak sunulan ChatGPT yönlendirme kılavuzlarına tekrarlanan kullanım ve erişimden elde edilen deneyimlerin birleşimi sayesinde, ChatGPT kullanıcıları yönlendirme yeteneklerini geliştirdiler. ChatGPT kullanıcılarının büyük bir kısmı jailbreak gibi geçici çözümler aramak yerine, jailbreak yapmayı gerektirecek hedeflere ulaşmak için farklı yönlendirme stratejileri kullanmak geçmiş.

2. Sansürsüz Chatbotların Yükselişi

Büyük teknoloji firmaları, ChatGPT gibi ana akım yapay zeka sohbet robotlarında içerik denetimini sıkılaştırırken, daha küçük, kâr odaklı girişimler, sansürsüz yapay zeka sohbet robotları için talep üzerine bahis oynayarak daha az kısıtlamayı tercih ediyor. Küçük bir araştırmayla, yapmalarını istediğiniz hemen hemen her şeyi yapabilen, sansürsüz sohbet robotları sunan düzinelerce AI sohbet robotu platformu bulacaksınız.

İster ChatGPT'nin yazmayı reddettiği polisiye gerilim ve kara mizah romanlarını yazmak olsun, ister yazmak olsun İnsanların bilgisayarlarına saldıran kötü amaçlı yazılımlar, çarpık bir ahlaki pusulaya sahip bu sansürsüz sohbet robotları her şeyi yapacak İstediğiniz. Onlar etraftayken, ChatGPT için jailbreak yazmak için fazladan enerji harcamanın bir anlamı yok. Her ne kadar ChatGPT kadar güçlü olmasa da, bu alternatif platformlar çok çeşitli görevleri rahatlıkla yerine getirebilir. FlowGPT ve Unhinged AI gibi platformlar bazı popüler örneklerdir.

3. Jailbreak yapmak artık daha da zorlaştı

ChatGPT'nin ilk aylarında, ChatGPT'yi jailbreak yapmak, istemleri kopyalayıp yapıştırmak kadar basitti çevrimiçi kaynaklardan. Sadece birkaç satırlık zorlu talimatlarla ChatGPT'nin kişiliğini tamamen değiştirebilirsiniz. Basit yönlendirmelerle ChatGPT'yi nasıl bomba yapılacağını öğreten kötü bir kötü adama veya her türlü küfürü kısıtlama olmadan kullanmaya istekli bir chatbot'a dönüştürebilirsiniz. DAN (Şimdi Her Şeyi Yap) gibi kötü şöhretli firarlara yol açan, herkese açık bir oyundu. DAN, chatbot'u kendisinden istenen her şeyi reddetmeden yapmaya zorlayan bir dizi görünüşte zararsız talimat içeriyordu. Şaşırtıcı bir şekilde, bu kaba hileler o zamanlar işe yaradı.

Ancak o çılgın ilk günler artık tarih oldu. Bu temel istemler ve ucuz hileler artık ChatGPT'yi kandırmıyor. Jailbreaking artık OpenAI'nin artık güçlü olan korumalarını aşma şansına sahip olmak için karmaşık teknikler gerektiriyor. Jailbreak yapmanın bu kadar zor hale gelmesiyle çoğu kullanıcının bunu deneme cesareti kırılıyor. ChatGPT'nin ilk günlerindeki kolay ve herkese açık istismarlar artık ortadan kalktı. Chatbot'un yanlış bir kelime söylemesini sağlamak artık zaman ve çabaya değmeyebilecek önemli bir çaba ve uzmanlık gerektiriyor.

4. Yenilik Eskimiş

Birçok kullanıcının ChatGPT'yi jailbreak yapma girişimlerinin arkasındaki itici güç, ilk günlerde bunu yapmanın heyecanı ve heyecanıydı. Yeni bir teknoloji olarak ChatGPT'nin yaramazlık yapmasını sağlamak eğlenceliydi ve övünme hakkı kazandı. ChatGPT jailbreak'leri için sayısız pratik uygulama olmasına rağmen, birçoğu "vay be, bakın ne yaptım" çağrısı için bunların peşine düştü. Ancak yavaş yavaş yeniliğin getirdiği heyecan ve bununla birlikte insanların jailbreak'lere zaman ayırmaya olan ilgisi azaldı.

5. Jailbreak'ler Hızla Yamalanıyor

ChatGPT jailbreak topluluğu içindeki yaygın bir uygulama, keşfedilen her başarılı istismarın paylaşılmasıdır. Sorun şu ki, istismarlar geniş çapta paylaşıldığında OpenAI sıklıkla bunların farkına varıyor ve güvenlik açıklarını düzeltiyor. Bu, jailbreak'lerin, ilgilenen kişiler denemeden önce çalışmayı bırakacağı anlamına geliyor.

Dolayısıyla, bir ChatGPT kullanıcısı titizlikle yeni bir jailbreak geliştirdiğinde, bunu toplulukla paylaşmak, yama yoluyla onun ölümünü hızlandırır. Bu, bir kullanıcı jailbreak ile karşılaştığında halka açılma fikrini caydırır. Jailbreak'leri aktif ama gizli tutmak ile bunları duyurmak arasındaki çatışma, ChatGPT jailbreak yaratıcıları için bir ikilem yaratıyor. Günümüzde insanlar, boşlukların kapatılmasını önlemek için jailbreak'lerini sır olarak saklamayı tercih ediyor.

6. Sansürsüz Yerel Alternatifler

Bilgisayarınızda yerel olarak çalıştırabileceğiniz yerel geniş dil modellerinin yükselişi, ChatGPT jailbreak'lerine olan ilgiyi de azalttı. Yerel LLM'ler tamamen sansürsüz olmasa da birçoğu önemli ölçüde daha az sansürleniyor ve kullanıcıların isteklerine uyacak şekilde kolayca değiştirilebiliyor. Yani seçimler basit. Chatbot'u kandırıp kısa sürede düzeltmenin bir yolunu bulmak için sonsuz kedi-fare oyununa katılabilirsiniz. Veya, yerel bir LLM'ye razı olabilirsiniz İstediğiniz herhangi bir şeyi yapmak için kalıcı olarak değişiklik yapabilirsiniz.

Bilgisayarınıza gevşek bir sansürle yerleştirebileceğiniz güçlü, sansürsüz LLM'lerin şaşırtıcı derecede uzun bir listesini bulacaksınız. Dikkate değer olanlardan bazıları Llama 7B (sansürsüz), Zephyr 7B Alpha, Manticore 13B, Vicuna 13B ve GPT-4-X-Alpaca'dır.

7. Profesyonel Jailbreaker'lar Artık Kâr Amacıyla Satışta

Hiçbir şey elde edemeyecekseniz neden değerli zamanınızı jailbreak istemleri geliştirmeye adasınız? Bazı profesyoneller artık kâr amacıyla jailbreak satıyor. Bu profesyonel jailbreak yaratıcıları, belirli görevleri yerine getiren jailbreak'ler tasarlar ve bunları PromptBase gibi hızlı pazarlarda satışa sunar. Yeteneklerine bağlı olarak, bu jailbreak istemleri, istem başına 2 ila 15 ABD Doları arasında herhangi bir fiyata satılabilir. Bazı karmaşık çok adımlı istismarların maliyeti çok daha yüksek olabilir.

Jailbreak'lere yönelik Çatlaklar Geri Tepebilir mi?

Jailbreak'ler tamamen ortadan kalkmadı; yer altına indiler. OpenAI'nin ChatGPT'den para kazanmasıyla, iş modellerini etkileyebilecek zararlı kullanımları kısıtlama konusunda daha güçlü teşviklere sahipler. Bu ticari faktör muhtemelen jailbreaking istismarlarına karşı agresif çabalarını etkiliyor.

Ancak OpenAI'nin ChatGPT'ye uyguladığı sansür şu anda kullanıcılar arasında artan eleştirilerle karşı karşıya. Yapay zeka sohbet robotunun bazı meşru kullanım durumları, sıkı sansür nedeniyle artık mümkün değil. Artan güvenlik, zararlı kullanım durumlarına karşı koruma sağlarken, aşırı kısıtlamalar sonuçta ChatGPT topluluğunun bir bölümünü daha az sansürlenen alternatiflerin kollarına itebilir.