AI bizi yok etmeye hazır değil... henüz.
Yapay zeka, başlangıcından beri tartışılan bir konu olmuştur. Skynet benzeri bir yapay zekanın canlanıp insanlığı ele geçirme korkusu mantıksız olsa da, en hafif tabirle bazı deneyler endişe verici sonuçlar verdi.
Böyle bir deney, ataç maksimize edici problemidir; son derece zeki bir yapay zekanın, tamamen kötü niyet olmadan tasarlanmış olsa bile, nihayetinde insanlığı yok edebileceğini gösteren bir düşünce deneyi.
Ataç Maximizer Problemi Açıklandı
Tamamen zararsız bir yapay zekanın bile sonunda insanlığı yok edebileceğine dair bu düşünce deneyine ilk olarak Ataç Maksimize Edici adı verildi çünkü ataçlar göstermek için seçildi. Yapay zekanın yapabilecekleri, görünürde çok az tehlikeleri olduğu ve kanseri tedavi etmek veya kazanmak gibi bu sorunun geçerli olduğu diğer alanlarla karşılaştırıldığında duygusal sıkıntıya neden olmayacaklardır. savaşlar
İlk deney, İsveçli filozof Nick Bostrom'un 2003 tarihli makalesinde yer aldı. İleri Yapay Zekada Etik Konular
Yeterince gelişmiş bir yapay zekanın kullanabileceği varoluşsal riskleri göstermek için ataç büyütücüyü içeren.Sorun, tek amacı mümkün olduğu kadar çok ataç yapmak olan bir yapay zeka sunuyordu. Yeterince zeki bir yapay zeka, er ya da geç insanların hedefine üç farklı açıdan meydan okuduğunu fark edecektir.
- İnsanlar yapay zekayı kapatabilir.
- İnsanlar hedeflerini değiştirebilir.
- İnsanlar, ataçlara dönüştürülebilen atomlardan yapılmıştır.
Her üç örnekte de, evrende daha az ataç olacaktır. Bu nedenle, tek amacı mümkün olduğu kadar çok ataç yapmak olan yeterince akıllı bir yapay zeka ulaşabileceği tüm maddeyi ve enerjiyi ele geçirecek ve kapanmasını veya kapanmasını engelleyecektir. değişti. Muhtemelen tahmin edebileceğiniz gibi, bu çok daha tehlikelidir. banka hesabınızı veya bilgisayarınızı hacklemek için ChatGPT kullanan suçlular.
AI, insanlara düşman değildir; sadece kayıtsız. Yalnızca ataç sayısını en üst düzeye çıkarmayı önemseyen bir yapay zeka, bu nedenle insanlığı yok eder ve amacına ulaşmak için onları esasen ataçlara dönüştürür.
Ataç Maximizer Problemi Yapay Zekaya Nasıl Uygulanır?
Ataş maksimize edici problemiyle ilgili araştırma ve deney sözlerinin tümü, burada vekil taraf olarak varsayımsal son derece güçlü bir optimize ediciden veya oldukça zeki bir aracıdan bahseder. Yine de sorun, role mükemmel bir şekilde uyduğu ölçüde yapay zeka için geçerlidir.
Sonuçta, bir ataş büyütücü fikri, gelişmiş yapay zekanın bazı tehlikelerini göstermek için yaratıldı. Genel olarak, iki sorun sunar.
- Diklik tezi: Ortogonallik tezi, zeka ve motivasyonun karşılıklı olarak birbirine bağlı olmadığı görüşüdür. Bu, yüksek düzeyde genel zekaya sahip bir yapay zekanın insanlarla aynı ahlaki sonuçlara ulaşmamasının mümkün olduğu anlamına gelir.
- Enstrümantal yakınsama: Araçsal yakınsama, yeterince zeki varlıkların çoğuna yönelik eğilim olarak tanımlanır (her ikisi de insan ve insan olmayan) nihai hedefleri tamamen aynı olsa bile benzer alt hedefleri takip etmek farklı. Ataş büyütme sorunu durumunda, bu, AI'nın her şeyi devralacağı anlamına gelir. daha fazlasını yaratma hedefine ulaşmak için doğal kaynakları yok etmek ve insanlığı yok etmek kağıt tutacağı.
Ataş maksimize edici tarafından vurgulanan daha büyük sorun, araçsal yakınsamadır. Riemann hipotezi kullanılarak da vurgulanabilir, bu durumda hipotezi çözmek için tasarlanmış bir yapay zeka pekala tümünü devralmaya karar verebilir. Dünya'nın kütlesi ve onu computronium'a (mümkün olan en verimli bilgisayar işlemcileri) dönüştürmek, sorunu çözmek ve amacına ulaşmak için süper bilgisayarlar inşa etmek. amaç.
Bostrom'un kendisi, ataş maksimize edici sorununun hiçbir zaman gerçek bir sorun olacağına inanmadığını vurguladı, ancak niyeti İnsanlar için varoluşsal olarak riskli olmayacak şekilde nasıl kontrol edileceğini veya programlanacağını bilmeden süper zeki makineler yaratmanın tehlikelerini gösterir. varlıklar. ChatGPT gibi modern AI sistemlerinin de sorunları var, ancak ataç maksimize etme probleminde bahsedilen süper zeki yapay zeka sistemlerinden çok uzaktalar, bu nedenle henüz paniğe kapılmak için bir neden yok.
Gelişmiş Yapay Zeka Sistemleri Üstün Kontrol Gerektirir
Ataç büyütme sorunu her zaman aynı sonuca varır ve insani değerlerden yoksun, oldukça zeki ve güçlü bir sistemi yönetmenin sorunlarını vurgular.
Ataç kullanımı, sorunu göstermenin en popüler yöntemi olsa da, istediğiniz sayıda görev için geçerlidir. kanseri ortadan kaldırmak, savaşları kazanmak, daha fazla ağaç dikmek veya başka herhangi bir görev için ne kadar görünür olursa olsun bir yapay zekaya verebilir. aptal.