Nick Bostrom ile Süper-Zeka Röportajı
Faruk Ay, 8 Ocak 2013
Nick Bostrom, İsveçli felsefe profesörü, Oxford üniversitesi bünyesinde kurulan “Future of Humanity” (İnsanlığın Geleceği) enstitüsünün direktörü, aynı zamanda eski adı WTA (Dünya Transhümanistler Derneği), yeni adı H+ olan organizasyonun David Pearce ile birlikte kurucu ortağı. Çalışma alanı özellikle teknoloji ile birlikte yeniden şekillendirilen insanlığın geleceğinin ne gibi riskler taşıdığı. Oxford’da düzenlenen AGI-12 etkinliği sonrasında ofisinde ziyaret ettiğimiz Nick Bostrom’la yakında çıkaracağı kitabın da konusu olan Süper-Zeka üzerine konuştuk.
Eliezer Yudkowsky kendisiyle Singularity Summit 2012’deki görüşmemizde yapay zekanın inşa edilebilmesi için gerçekten çok büyük bir çalışma gerektiğini, bazı yeni problemleri çözmek için yeni bir Einstein’a ihtiyacımız olacağını söylemişti. Süper-zekaya ulaşabilmek için gerçekten bir Einstein mı bekliyoruz?
Ben meselenin ne kadar zor olduğunu bilmediğimizi düşünüyorum. İnsan seviyesinde ya da daha üstün süper-zekalı bilgisayarlar geliştirmenin gerçekten ne kadar zor olduğunu bilmiyoruz. Bunun ötesinde, bunu teknik olarak başarabilecek olsak bile, güvenli olacağını garanti altına almanın ne kadar zor olacağını da bilmiyoruz. Yani zorluğunu bilmediğimiz iki büyük problem var. Aslında zaten ilkini çözmeden önce ikincisini çözmemiz lazım. Teknik olarak yapay zekayı nasıl inşa edeceğimiz problemine çözüm bulmamız ne kadar zaman alırsa alsın, bunu gerçekleştirmeden önce onu nasıl [şerli değil de] dost/hayırlı yapabileceğimiz problemini çözmek zorundayız.
Ben Goertzel, 2019’da insan seviyesinde bir genel yapay zekaya ulaşılacağını ve kısa bir süre içinde de, 2023 gibi, yapay zekanın kendi kendini geliştirme özelliği kazanacağını öngördüğünü söyledi. Siz günümüzdeki genel yapay zeka çalışmalarını nasıl değerlendiriyorsunuz. Kendi kendini geliştirebilen genel yapay zekaya sizce bu kadar yakın mıyız?
Hayır, bu kadar yakın olduğumuzu düşünmüyorum. Ne kadar zaman alacağını bu kadar kesin bir şekilde tahmin etmenin de kesinlikle mümkün olmadığını kanaatindeyim. Yapay zeka alanında, kendinden emin bir şekilde şu aşama (insan seviyesinde yapay zeka gibi) yakında aşılacaktır diyen uygulamacılar tarafından yapılan yanlışlanmış bir sürü böyle öngörü var. Yine başka birçok durumda insanların bilgisayarların bazı şeyleri asla yapamayacaklarını (mesela satranç bilgisayarının insanları yenmesi gibi) iddia ettiğini ama bunların gerçekleştiğini görüyoruz. Buradan çıkarılması gereken ders tahminlerdeki “güvenirlik aralığı”nı genişletmemiz gerektiği; yani belli bir tarihle alakalı kesin bir tahmin yapmak yerine, birçok muhtemel gerçekleşme tarihini kapsayan geniş bir olasılık dağılımı üzerinden düşünmeliyiz. Bu olasılık dağılımı da, yapay zekanın ortaya çıkmasının ne kadar süreceğinin hakikaten belirsiz olduğunu yansıtması için, olabildiğince geniş tutulmalı.
Ray Kurzweil’in bilgisayarların Turing testini geçeceğini iddia ettiği tarih de, bir iddiaya bile girmişti hatırladığım kadarıyla, yine aynı zamanlara denk geliyor. Tahminler niçin bu aralıkta yoğunlaşıyor sizce?
Tarihini tam hatırlamıyorum ama galiba Kurzweil’in tahmini biraz daha ilerideydi, 2040’lar gibi; yani Goertzel’in tahminine göre epey uzakta. Tabii başkaları da başka tarihler öne süreceklerdir, ama gerçek şu: Aslında kimse bilmiyor. Yine de bu bize bu olasılıkları dikkate almama salahiyeti vermez, çünkü daha yakın bir zamanda gerçekleşip gerçekleşmeyeceğini de bilmiyoruz. Bunun için meseleyi bir olasılıklar silsilesi olarak düşünmeli; erken, geç ve çok geç gerçekleşme ihtimallerini dikkate değer olasılıklar olarak görmeliyiz.
Siz yapay zekanın “dostluğu/hayırlılığı” konusuna nasıl bakıyorsunuz? Şimdiden bütün önlemleri almaya çalışmalı mıyız? Yoksa Goertzel’in dediği gibi bunun için daha erken ve yapay zeka son halini alıp tam anlamıyla ortaya çıkmadan önce zaten bunlara yoğunlaşma imkanımız olacak mı?
Şimdiden güvenlik önlemlerini “araştırmamız” gerektiğini düşünüyorum, çünkü daha önce de söylediğim gibi problemin ne kadar zor olduğunu bilmiyoruz. O yüzden bir zeka patlamasının sonuçlarının nasıl kontrol edileceği problemini ne sürede çözebileceğimizi de bilmiyoruz. Çok zor bir problem de olabilir bu. Ne kadar erken başlarsak, çözüme ihtiyaç duyduğumuz zaman, yani bu tarz bir yapay zeka ortaya çıktığında, elimizde somut sorunlar olma ihtimali o kadar artar. Bunların güvenli olduklarının nasıl garanti altına alınacağına dair farklı yaklaşımlar üzerinde ciddi bir şekilde düşünmek için hiç erken değil.
Aynı zamanda gelecek kitabınızı da merak ediyoruz? Yakında çıkacak mı?
Daha tam hazır değil. Şu anda hala nihai bölüm üzerine çalışıyorum. Kış tatilinde de yazmaya devam edeceğim. Umuyorum ki önümüzdeki senenin başında bitecektir, piyasaya girmesi de bir 6 ay daha alır. Yani muhtemelen 2013’ün sonlarında çıkacaktır.
Bize biraz bilgi verebilir misiniz kitap hakkında?
Kitabın başlığı “süper-zeka” (Super Intelligence). Her hangi bir formuyla, ama özellikle makine süper-zekası olarak süper-zeka yaratma kabiliyetine bir gün sahip olursak ne olacağı üzerine. Bunun risklerini, bu riskleri nasıl ortadan kaldırabileceğimizi, böyle bir geleceğin şu an için stratejik olarak neler gerektirdiğini, bugün ne yapabileceğimizi tartışıyor. Bunun tam olarak ne zaman gerçekleşeceği üzerine değil pek, ilk bölümde bu konuyla alakalı bir şeyler var. Ama ağırlıkla bu riskler ve zeka patlaması üzerine.
Bir süper-zeka yaratma kabiliyeti elde ettiğinizde bir zeka patlaması (yani insan zekası seviyesinden bundan çok çok daha üstün bir seviyeye çok kısa bir zamanda geçtiğiniz bir nevi Singularity) gerçekleşiyor. Bunun başlangıç şartlarını nasıl hazırlamalıyız ki sonunda her şeyi tahrip eden bir infilak yerine, bir nevi kontrollü patlama yaşayalım?
1 Ekim 2017
24 Eylül 2017
17 Eylül 2017