İlan
Son birkaç ay içinde, çevreyi kapsayan Stephen Hawking'in ortak yazdığı bir makaleyapay zeka ile ilgili risklerin tartışılması. Makale, AI'nın insan ırkı için ciddi bir risk oluşturabileceğini öne sürdü. Hawking orada yalnız değil - Elon Misk ve Peter Thiel ikisi de benzer endişeleri dile getiren entelektüel kamu figürleridir (Thiel, konuyu ve olası çözümleri araştırmak için 1,3 milyon dolardan fazla yatırım yapmıştır).
Hawking’in makalesinin ve Musk’ın yorumlarının kapsamı, üzerinde bir noktaya değinmemek, biraz neşeli. Ton çok oldu “Tüm bu meraklıların endişe ettiği bu tuhaf şeye bak.” Dünyadaki en zeki insanlardan bazıları sizi bir şeyin çok tehlikeli olabileceği konusunda uyarıyorsa, sadece dinlemeye değer olabileceği fikrine çok az dikkat edilir.
Bu anlaşılabilir - dünyayı ele geçiren yapay zeka kesinlikle çok garip ve mantıksız, belki de bilim kurgu tarafından bu fikre zaten verilen büyük dikkat nedeniyle yazarlar. Peki, tüm bu nominal, akılcı, rasyonel insanlar ne kadar ürkütücü?
Zeka Nedir?
Yapay Zekanın tehlikesi hakkında konuşmak için zekanın ne olduğunu anlamak faydalı olabilir. Sorunu daha iyi anlamak için, akıl yürütme teorisini inceleyen araştırmacılar tarafından kullanılan oyuncak AI mimarisine bakalım. Bu oyuncak AI, AIXI olarak adlandırılır ve bir dizi yararlı özelliğe sahiptir. Hedefleri keyfi olabilir, bilgi işlem gücü ile iyi ölçeklenir ve iç tasarımı çok temiz ve anlaşılır.
Ayrıca, mimarinin basit, pratik, Pacman oyna, Eğer istersen. AIXI, algoritmik zeka konusunda en önde gelen uzman olan Marcus Hutter adlı bir AI araştırmacısının ürünüdür. Yukarıdaki videoda o konuşuyor.
AIXI şaşırtıcı derecede basittir: üç temel bileşeni vardır: öğrenci, planlamacı, ve yardımcı fonksiyon.
- öğrenci dış dünya hakkındaki girdilere karşılık gelen bit dizelerini alır ve gözlemlerini çıktı olarak üretenleri bulana kadar bilgisayar programları üzerinden arama yapar. Bu programlar, birlikte, sadece her birini çalıştırarak geleceğin nasıl görüneceğini tahmin etmesine izin verir. ileriye doğru programlamak ve sonucun olasılığını programın uzunluğuna göre ağırlıklandırmak (Occam’ın bir uygulaması Ustura).
- planlamacı temsilcinin alabileceği olası eylemleri araştırır ve öğrenen modülünü kullanarak her birini alması durumunda ne olacağını tahmin eder. Daha sonra onları tahmin edilen sonuçların ne kadar iyi veya kötü olduğuna göre derecelendirir ve beklenen sonucun iyiliğini en üst düzeye çıkaran eylemin beklenen olasılık ile çarpılması başarmak.
- Son modül, yardımcı fonksiyon, dünyanın gelecekteki bir durumunu tanımlayan ve bunun için bir yardımcı puan hesaplayan basit bir programdır. Bu fayda puanı, sonucun ne kadar iyi veya kötü olduğu ve planlayıcı tarafından gelecekteki dünya devletini değerlendirmek için kullanılır. Yardımcı program işlevi isteğe bağlı olabilir.
- Birlikte ele alındığında, bu üç bileşen bir iyileştiricikendi içinde bulduğu dünyadan bağımsız olarak belirli bir hedef için optimizasyon yapar.
Bu basit model, akıllı bir ajanın temel tanımını temsil eder. Temsilci, çevresini inceler, modelleri oluşturur ve ardından bu modelleri, istediği şeyi alma olasılığını en üst düzeye çıkaracak eylem yolunu bulmak için kullanır. AIXI, yapı olarak satranç oynayan bir yapay zekaya veya bilinen kurallara sahip diğer oyunlara benzer - ancak sıfır bilgiden başlayarak oyunun kurallarını oynayarak çıkarabilir.
Hesaplamak için yeterli zaman verilen AIXI, herhangi bir sistemi herhangi bir amaç için optimize etmeyi öğrenebilir. Genel olarak akıllı bir algoritmadır. Bunun insan benzeri zekaya sahip olmakla aynı şey olmadığını unutmayın (biyolojik olarak ilham alan AI, tamamen farklı konu OpenWorm'dan Giovanni Idili: Beyinler, Solucanlar ve Yapay ZekaBir insan beynini simüle etmek bir yoludur, ancak açık kaynaklı bir proje, bilimin bildiği en basit hayvanlardan birinin nörolojisini ve fizyolojisini simüle ederek hayati ilk adımları atıyor. Daha fazla oku ). Başka bir deyişle, AIXI herhangi bir entelektüel görevde (yeterince bilgi işlem gücü verildiğinde) herhangi bir insanı geride bırakabilir, ancak zaferinin farkında olmayabilir Düşünme Makineleri: Sinirbilim ve Yapay Zekanın Bize Bilinç Hakkında Ne Öğretebilir?Yapay olarak zeki makineler ve yazılımlar oluşturmak bize bilincin işleyişi ve insan zihninin doğası hakkında bilgi verebilir mi? Daha fazla oku .
Pratik bir yapay zeka olarak AIXI'nin birçok sorunu var. İlk olarak, ilgilendiği çıktıyı üreten programları bulmanın bir yolu yoktur. Bu bir kaba kuvvet algoritmasıdır, yani etrafta keyfi olarak güçlü bir bilgisayar yoksa pratik olmaz. AIXI'nin herhangi bir gerçek uygulaması zorunlu olarak bir yaklaştırmadır ve (bugün) genellikle oldukça kaba bir yaklaşımdır. Yine de, AIXI bize güçlü bir yapay zekanın neye benzeyebileceğine ve nasıl akıl yürütebileceğine dair teorik bir bakış sunuyor.
Değerlerin Alanı
Eğer herhangi bir bilgisayar programlaması yaptınız Bilgisayar Programlamanın Temelleri 101 - Değişkenler ve Veri TipleriNesneye Yönelik Programlamayı daha önce ve nerede ismiyle tanıştırıp konuştuk gelince, dilin spesifik olmayan bir şekilde programlamanın mutlak temellerinden geçmenin zamanı geldiğini düşündüm yol. Bu... Daha fazla oku , bilgisayarların iğrenç, bilgiçliksel ve mekanik olarak değişmez olduğunu bilirsiniz. Makine ne yapmasını istediğinizi bilmiyor veya önemsemiyor: sadece söylendiğini yapıyor. Makine zekası hakkında konuşurken bu önemli bir kavramdır.
Bunu göz önünde bulundurarak, güçlü bir yapay zeka icat ettiğinizi hayal edin - geldin verilerinizle eşleşen hipotezler oluşturmak ve iyi adaylar oluşturmak için akıllı algoritmalarla planları. AI'nız genel sorunları çözebilir ve modern bilgisayar donanımında bunu verimli bir şekilde yapabilir.
Şimdi AI değerinin ne olacağını belirleyecek bir yardımcı program seçme zamanı. Değer vermesini ne istemelisiniz? Unutmayın, makine en üst düzeye çıkarmasını istediğiniz herhangi bir işlev hakkında iğrenç, bilgiçliksel olarak değişmez olacak ve asla durmayacak - içinde hayalet yok kendi başına ne kadar verimlilik iyileştirmesi yaparsa yapsın, 'uyanacak' ve fayda işlevini değiştirmeye karar verecek olan makine muhakeme.
Eliezer Yudkowsky bu şekilde koy:
Tüm bilgisayar programlarında olduğu gibi, AGI'nin temel zorluğu ve temel zorluğu, yanlış kod yazarsak, AI otomatik olarak kodumuzu gözden geçirmeyecek, hataları işaretleyemeyecek, gerçekten ne demek istediğimizi anlamayacak ve bunu yapmayacak yerine. Programcı olmayanlar bazen bir AGI veya genel olarak bilgisayar programlarını, emirleri sorgulamadan takip eden bir hizmetçiye benzer olarak düşünürler. Ama AI kesinlikle değil itaatkâr koduna göre; daha ziyade, AI dır-dir kod.
Bir fabrikayı çalıştırmaya çalışıyorsanız ve makineye ataç yapmaya değer vermesini ve daha sonra ona fabrika robotlarının kontrolünü vermesini söylüyorsanız, ertesi gün diğer tüm hammaddelerin tükendiğini, tüm çalışanlarınızı öldürdüğünü ve kağıt klipslerini kalıntıları. Eğer yanlışınızı düzeltmek için, makineyi herkesi mutlu etmek için yeniden programlıyorsanız, ertesi gün telleri insanların beynine soktuğunu bulmak için geri dönebilirsiniz.
Buradaki nokta, insanların diğer zihinlerle örtülü olarak paylaşıldığını düşündüğümüz birçok karmaşık değere sahip olmasıdır. Paraya değer veriyoruz, ancak insan yaşamına daha çok değer veriyoruz. Mutlu olmak istiyoruz, ancak bunu yapmak için beynimize kablolar koymak istemiyoruz. Diğer insanlara talimat verirken bunları açıklığa kavuşturmamız gerekmiyor. Bununla birlikte, bir makinenin faydalı işlevini tasarlarken bu tür varsayımlarda bulunamazsınız. Basit bir fayda fonksiyonunun ruhsuz matematiğinin altındaki en iyi çözümler, genellikle insanların ahlaki olarak dehşet verici oldukları için karıştıracakları çözümler.
Akıllı bir makinenin saf bir yardımcı işlevi en üst düzeye çıkarmasına izin vermek neredeyse her zaman felaket olacaktır. Oxford filozofu Nick Bostom'un söylediği gibi,
Bir süper zekanın bilgelikle stereotipik olarak ilişkili son değerlerden herhangi birini paylaşacağını açıkça göze alamayız. insanlarda entelektüel gelişim - bilimsel merak, başkaları için hayırsever kaygı, manevi aydınlanma ve tefekkür, maddi kazanımın feragat edilmesi, rafine kültürün tadı ya da yaşam, tevazu ve özveriliğin basit zevkleri için böylece.
Daha da kötüsü, insanların değer verdiği her şeyin tam ve ayrıntılı listesini belirtmek çok, çok zor. Sorunun birçok yönü var ve tek bir tanesini bile unutmak potansiyel olarak felaket. Farkında olduğumuz kişiler arasında bile, bunları bir makineye fayda işlevi olarak verebileceğimiz temiz denklem sistemleri olarak yazmayı zorlaştıran incelikler ve karmaşıklıklar vardır.
Bazı insanlar, bunu okuduktan sonra, yararlı işlevlere sahip AI'ların inşa edilmesinin korkunç bir fikir olduğu sonucuna varırız ve bunları farklı şekilde tasarlamamız gerekir. Burada da kötü haberler var - resmi olarak şunu kanıtlayabilirsiniz: bir yardımcı program işlevine eşdeğer bir şeye sahip olmayan aracıların tutarlı tercihleri olamaz gelecek hakkında.
Özyinelemeli Kendini Geliştirme
Yukarıdaki ikilemin bir çözümü, AI ajanlarına insanlara zarar verme fırsatı vermemek: onlara sadece ihtiyaç duydukları kaynakları vermek problemi çözülme niyetiniz doğrultusunda çözebilir, yakından denetleyebilir ve harika yapma fırsatlarından uzak tutabilirsiniz zarar. Ne yazık ki, akıllı makineleri kontrol etme yeteneğimiz oldukça şüphelidir.
Bizden çok daha akıllı olmasalar bile, makinenin “bootstrap” yapma - daha iyi donanım toplama veya kendi kodunda daha akıllı hale getiren iyileştirmeler yapma olasılığı vardır. Bu, bir makinenin insan zekasını birçok büyüklük sırasına göre atlamasına izin verebilir, aynı şekilde insanların kedileri zekice beslemesini sağlar. Bu senaryo ilk olarak I adlı bir adam tarafından önerildi. J. II. Dünya Savaşı sırasında Alan Turing ile Enigma şifreli analiz projesi üzerinde çalışan Good. Ona “İstihbarat Patlaması” adını verdi ve konuyu şöyle tarif etti:
Ultra akıllı bir makinenin, her ne kadar zeki olsa da, herhangi bir insanın tüm entelektüel faaliyetlerini fazlasıyla aşabilecek bir makine olarak tanımlanmasına izin verin. Makinelerin tasarımı bu entelektüel faaliyetlerden biri olduğundan, ultra akıllı bir makine daha iyi makineler tasarlayabilir; o zaman tartışmasız bir “istihbarat patlaması” olacaktı ve insanın zekası çok geride kalacaktı. Böylece, ilk ultra akıllı makine, makinenin yeterince uysal olması şartıyla, insanın yapması gereken son buluştur.
Evrenimizde bir istihbarat patlamasının mümkün olduğu garanti edilmez, ancak muhtemel görünmektedir. Zaman geçtikçe bilgisayarlar daha hızlı hale gelir ve zeka hakkında temel bilgiler edinilir. Bu, genel bir güçlendirici istihbarata son atlamayı yapmak için kaynak gereksiniminin daha düşük ve daha düşük olduğu anlamına gelir. Bir noktada, kendimizi milyonlarca insanın En İyi Satın Almaya gidebileceği ve donanımı toplayabileceği bir dünyada bulacağız ve Kendi geliştirdiğimiz yapay zekayı inşa etmek için ihtiyaç duydukları teknik literatür, tehlikeli. Çubuklardan ve kayalardan atom bombaları yapabileceğiniz bir dünya hayal edin. Bu, tartışacağımız türden bir gelecek.
Ve eğer bir makine bu sıçramayı yaparsa, insan türünü entelektüel açıdan çok hızlı bir şekilde geride bırakabilir. verimlilik, bir milyar insanın çözemediği sorunları çözer, aynı şekilde milyar kedi yapamaz.
Güçlü robotlar (veya biyo veya nanoteknoloji) geliştirebilir ve nispeten hızlı bir şekilde dünyayı istediği gibi yeniden şekillendirme yeteneği kazanabilir ve bu konuda yapabileceğimiz çok az şey olurdu. Böyle bir zeka, Dünya'yı ve güneş sisteminin geri kalanını yedek parçalar için çok fazla sorun yaşamadan, söylediklerimizi yapma yolunda soyabilir. Böyle bir gelişmenin insanlık için felaket olacağı muhtemel görünüyor. Yapay bir zekanın dünyayı yok etmek için kötü amaçlı olması gerekmez, sadece felaketle ilgisiz.
Söyledikçe, “Makine seni sevmiyor ya da nefret etmiyor, ama sen başka şeyler için kullanabileceği atomlardan yapılmışsın.”
Risk Değerlendirmesi ve Azaltma
Yani, basit bir fayda işlevini en üst düzeye çıkaran güçlü bir yapay zeka tasarlamanın kötü olduğunu kabul edersek, gerçekten ne kadar sorun yaşıyoruz? Bu tür makineler yapmak mümkün olmadan ne kadar zamanımız var? Tabii ki bunu söylemek zor.
Yapay zeka geliştiricileri aşama kaydetmek. Yapay Zeka Programlamasında Son Görülen 7 Şaşırtıcı Web SitesiYapay Zeka henüz 2001: HAL Odyssey'den HAL değil… ama çok yaklaşıyoruz. Tabii ki, bir gün Hollywood tarafından çalınan bilim kurgu potboilers benzer olabilir ... Daha fazla oku İnşa ettiğimiz makineler ve çözebilecekleri sorunlar kapsamı giderek artıyor. 1997'de Deep Blue satranç bir insan büyükustadan daha yüksek bir seviyede oynayabilirdi. 2011'de IBM’in Watson en iyi insanı yenecek kadar derinden ve hızlı bir şekilde yeterli bilgiyi okuyabildi ve sentezleyebildi açık uçlu bir soru ve cevap oyunundaki oyuncular, kelime oyunu ve kelime oyunu ile dolu - on dörtte çok ilerleme yıl.
Şu anda Google derin öğrenmeyi araştırmaya büyük yatırım yapmakdaha basit sinir ağlarının zincirlerini oluşturarak güçlü sinir ağlarının oluşturulmasına izin veren bir tekniktir. Bu yatırım, konuşma ve görüntü tanıma konusunda ciddi ilerleme kaydetmesine izin veriyor. Bölgedeki en son satın alımları, yaklaşık 400 milyon dolar ödedikleri DeepMind adlı bir Derin Öğrenme girişimi. Anlaşma şartlarının bir parçası olarak Google, AI teknolojilerinin güvenli bir şekilde geliştirilmesini sağlamak için bir etik kurul oluşturmayı kabul etti.
Aynı zamanda IBM, görüntü ve video işleyebilen ve sonuçları savunmayı savunabilen sistemler olan Watson 2.0 ve 3.0'ı geliştiriyor. Watson'un aşağıdaki video demosunda bir konu için ve bir konuyla ilgili argümanları sentezleme yeteneğinin basit ve erken bir demosunu verdiler. Sonuçlar kusurlu, ancak ne olursa olsun etkileyici bir adım.
Bu teknolojilerin hiçbiri şu anda tehlikeli değil: bir alan olarak yapay zeka hala küçük çocukların ustalık yeteneklerini eşleştirmek için mücadele ediyor. Bilgisayar programlama ve AI tasarımı çok zor, üst düzey bir bilişsel beceridir ve muhtemelen makinelerin yetkinleştiği son insan görevi olacaktır. Bu noktaya gelmeden önce, her yerde bulunan makinelerimiz de olacak bu sürebilir Sürücüsüz Otomobillerle Dolu Bir Dünyaya Nasıl UlaşacağızSürüş sıkıcı, tehlikeli ve zorlu bir iştir. Bir gün Google'ın sürücüsüz otomobil teknolojisi tarafından otomatik hale getirilebilir mi? Daha fazla oku , tıp ve hukuk uygulamave muhtemelen diğer şeylerin de derin ekonomik sonuçları vardır.
Kendini geliştirmenin çekim noktasına gelmemizin zamanı, iyi fikirlerin ne kadar hızlı olduğuna bağlıdır. Bu tür teknolojik gelişmeleri tahmin etmek çok zordur. Yirmi yıl içinde güçlü yapay zeka yapabileceğimiz mantıksız görünmüyor, ancak seksen yıl alabileceği de mantıksız görünmüyor. Her iki durumda da, eninde sonunda gerçekleşecek ve gerçekleştiğinde son derece tehlikeli olacağına inanmak için bir neden var.
Peki, bunun bir sorun olacağını kabul edersek, bu konuda ne yapabiliriz? Cevap, ilk akıllı makinelerin güvenli olduğundan emin olmak, böylece önemli bir zeka seviyesine kadar önyükleme yapabilir ve daha sonra bizi daha sonra yapılan güvenli olmayan makinelerden koruyabilir. Bu 'güvenlik', insan değerlerini paylaşarak ve insanlığı korumaya ve yardım etmeye istekli olarak tanımlanır.
Aslında insan değerlerini makineye oturamadığımızdan ve programlayamadığımızdan, muhtemelen makinenin insanları gözlemlemek, değerlerimizi çıkarmak ve sonra onları maksimize etmeye çalışmak. Bu geliştirme sürecini güvenli hale getirmek için, özel olarak tasarlanmış yapay zekâlar geliştirmek de yararlı olabilir değil geliştirme işlevleri hakkında tercihlere sahip olmak, geliştirme sırasında sapmaya başlarlarsa onları düzeltmemize veya direnç olmadan kapatmamıza izin verir.
Güvenli bir makine zekası oluşturmak için çözmemiz gereken sorunların çoğu matematiksel olarak zordur, ancak bunların çözülebileceğine inanmak için bir neden vardır. Bu konuda bir dizi farklı kuruluş çalışıyor. Oxford'daki İnsanlık Enstitüsünün Geleceği, ve Makine İstihbarat Araştırma Enstitüsü (Peter Thiel finanse eder).
MIRI, özellikle Dostu AI oluşturmak için gerekli olan matematiği geliştirmekle ilgilenmektedir. Önyükleme yapay zekasının mümkün olduğu ortaya çıkarsa, bu tür 'Dost AI' teknolojisi önce başarılı olursa, insanların sahip olduğu en önemli şey olabilir şimdiye kadar.
Yapay zekanın tehlikeli olduğunu düşünüyor musunuz? Yapay zekanın geleceğinin neler getireceğinden endişe duyuyor musunuz? Aşağıdaki yorum bölümünde düşüncelerinizi paylaşın!
Resim Kredileri: Lwp Kommunikáció Via Flickr, “Sinir ağı“Fdecomite tarafından,” img_7801“, Steve Rainwater,“ E-Volve ”, Keoni Cabral,“new_20x“, Robert Cudmore tarafından,“Kağıt tutacağı“, Clifford Wallace tarafından
Güneybatı'da yaşayan bir yazar ve gazeteci olan Andre, 50 dereceye kadar işlevsel kalmayı garanti ediyor ve on iki feet derinliğe kadar su geçirmez.