Singularity Institute (SI) nasıl MIRI oldu?
Bedirhan Sonakın, 6 Haziran 2013Ekim 2012’deki Singularity Summit, San Francisco’da bulunan Masonic Center’da yapıldı. Açıkçası ne çok heyecanlı bir kalabalık vardı ne de konuşmalar 2011’dekiler kadar iddialıydı. Ve büyük kahin! Ray Kurzweil da bir o kadar ruhsuzdu. Singularitarian camianın başında bulunan Ray Kurzweil’in bile, adında kendi ortaya koyduğu Singularity kelimesini taşıyan bu toplantıya, lütfen teşrifi dikkat çekiciydi. Bu ruhsuzluğun nedeni belli değil ama sonucu 2013’te ortaya çıktı ve Singularity Institute (SI) adını MIRI(Machine Intelligence Research Institute) olarak değiştirdi. Singularity Summit organizasyonunu da Singularity University’ye devretti. Sebep olarak da Singularity University (SU) ile karıştırılmasını ortaya koydu.
Singularity Institute’un geçmişine baktığımız zaman, 2000 yılında Yapay Zeka araştırmacısı Eliezer Yudkowsky tarafından kurulan bir vakıf görüyoruz. Brian ve Sabine Atkins adlı Internet girişimcilerinden destek alan bu yapı daha sonra transhumanist ve fütürist bir çok kişi tarafından desteklendi. İlk dönemlerde çeşitli araştırma makaleleri yayınlayan enstitü, 2004’te “I,Robot” filmi hakkında yayınladığı makale ile ses getirdi. Bu zamanlaması iyi yapılmış ve Asimov’un ortaya koyduğu “Robot Kanunları” ‘üzerine yazılmış bir makaleydi. Ayrıca bu konuda asimovlaws.com adlı bir internet sayfası da açtılar. Bu aynı zamanda ufak miktarda bir bağış toplanmasını da sağladı. (35.000 USD)
2006’dan itibaren de enstitünün altın dönemi başladı. PayPal sisteminin kurucusu Peter Thiel’in maddi desteği ve diğer bağışlarla 300.000 USD tutarında bir fon oluşturuldu ve bu fonun sayesinde kendi bünyesinde tam zamanlı çalışanlar istihdam eden enstitü, ilk Singularity Summit organizasyonunu yapma fırsatı yakaladı. Bu organizasyon Stanford Üniversitesi’nde yapıldı ve neredeyse ilgili herkes destek verdi. Destek verenler arasındaki önemli kişiler Ray Kurzweil ve Peter Thiel oldu. Bu dönemden sonra bu organizasyon her yıl yapılmaya devam etti.
İlk yıllarda Eliezer Yudkowski’nin kendi çabalarının ürünü olan yayınlar özellikle 2009’dan sonra daha da çeşitlendi ve yapay zeka üzerine ahlak, ekonomi ve karar verme teorisi odaklı yayınlar çıkmaya başladı. En başından itibaren odaklanılan konu aslında Yapay Zeka gerçekleştikten sonra bunun insanlığa etkileri ve olası bir üstün Yapay Zaka’nın insanlara düşman olmaması konusuydu. Güvenli Yapay Zeka ya da Dost Yapay Zeka adı altında tanımlanan bu başlık hali hazırda da çok fazla üzerinde çalışılan bir konu olmaya devam ediyor. Ancak büyük ağabeyler tarafından bu konu çok önemli bulunmadı hatta ağır olarak eleştirildi. Eleştirilerin temel sebebi ise SI’nın Yapay Zeka’ya doğru gidişte temkinli olunmasını tercih eden ve üstün bir Yapay Zeka’nın insanlığa karşı muhtemel düşmanlığının ve insanlığa bir tehdit oluşmasının engellenmesi noktasında çalışmalarının gereksiz bulunmasıydı. Eleştirenler arasında en önemli ve dikkat çekici olanlar Hugo de Garis ve Ben Goertzel oldu. Bunların eleştirileri ağır ve dalga geçer bir üsluptaydı genellikle.
Hugo de Garis enstitünün ismiyle de dalga geçerek Güvenli Yapay Zeka’nın anlamsız olduğunu, Ağustos 2012’de, H+ dergisindeki bir yazıda eleştirdi. Burada Singularity Enstitüsüne taktığı isim ise “Singhilarity Institute” oldu, yani “Sadece Kahkaha Enstitüsü”. Hugo de Garis bu yazının girişinde Singularity Institute hakkındaki olumsuz görüşünü sert bir şekilde ortaya koyarken onları yanlış bir fikirde direnen inatçılar ve hezeyan içinde olanlar olarak niteledi ve yazısının “transhumanistlerin neden sabrını taşırdığını” anlatmak için yazdığını belirtti. Yapılan bağışların boşa gideceğini gerçekten sinirli bir şekilde belirttiği yazısı, kendi Artilect kavramını ortaya koyarak devam ediyor ve Hugo de Garis’in eleştirileri SI ile kişisel bir derdi varmış izlenimini veriyor.
Alanın diğer bir önemli ismi Ben Goertzel ise 2010’da yazdığı bloğunda sıkı bir şekilde SI eleştirisini ortaya koydu. 2008’de başladığı enstitüdeki “Araştırma Direktörü” görevinin aslında hiç olmayan bir görev olduğunu ve OpenCog projesinin daha sonra SI’den ayrılarak kendi yolunda devam ettiğini belirtiyor. Yine de Goertzel vurmadan önce okşayanlardan. Enstitünün ne kadar önemli görevler yaptığını, bir bilinç oluşturduğunu ve Singularity Summit’leri çok sevdiğini yazıyor. Ama arkasından sert ve net bir şekilde SI’nin dost yapay zeka hakkındaki görüşlerini ve Yapay Zeka’ya doğru hızlı kalkış mı yapalım ağır mı gidelim tartışmasındaki, ağır gitme konusundaki eğilimlerini eleştiriyor. Sonuç olarak da SI’nin yapay zekanın insanlığa karşı olma ihtimali olan Korkunç Senaryo’nun aşırı derecede kötü bir fikir olduğunu kendince ortaya koyuyor.
Ben Goertzel’in bu yazı sonrasında Luke Muelhauser’la olan ve yayınlanan diyalogu bu konuda iki kanat arasındaki görüş farklarını ortaya koyuyor. Sonuç metninde Ben Goertzel bu diyalogu eğlenceli olarak tanımlıyor ve diyalogun içinde yeni tanımlamalar ve kıvırmalar olduğunu belirterek SI ekibiyle dalgasını geçiyor. Argümanlarını kuvvetli ama sonuçlarını fazlasıyla zayıf görüyor ve tüm SI ekibiyle olan konuşmalarında bir kukla oynatıcısının ipleri çektiği hissine kapıldığını belirtiyor. Burada oklar hemen Eliezer Yudkowski’yi gösteriyor.
Şimdilerde SI yeni adıyla MIRI aynı konularda çalışmaya devam ediyor ancak isimlerini kaptırdılar. Sadece isimlerini de kaptırmadılar, ayrıca Singularity Summit organizasyonunu da kaptırdılar. Bu acaba bir dışlanma mı bunu bilemeyeceğiz ama bir ayrım olduğu ortada. 2012 Singularity Summit bu konuda bize fazlasıyla malzeme çıkaran bir içeriğe sahipti. Büyük sayılabilecek isimler vardı ama örneğin 2013 Haziran’da yapılacak GF 2045 gibi bir katılım ve heyecan orada yoktu. GF 2045 bir nevi ayrımın netleştiği ortam olacak gibi gözüküyor.
Peki ne vardı 2012 Singularity Summit’de? Kesinlikle Eliezer Yudkowski vardı. Ortam bir nevi Eliezer Yudkowski ve onu takip eden gençler gibi bir havaya sahipti. Arkada Thiel Foundation’ın desteği hissediliyordu ki, bu vakıf tarafından yetiştirilen dört genç de topluluğa Yapay Zeka ve Ölümsüzlük hakkındaki heyecanları konusunda kısa birer sunum yaptılar. SI’nin başındaki Luke Muelhauser ve yeni kurulan yan kuruluş olan CFAR(Center for Applied Rationality)’ın başındaki Julia Galef konuşmalarında her fırsatta Yudkowski’ye methiyeler düzmekten kendilerini alamadı. Büyük kahin! Kurzweil ise ilk gün öğlen geldi, huysuz bir havada sunumunu yaptı ( ki bu huysuzluk üstüne döktüğü bir içecekten dolayı da olabilir) ve gitti.
Bunun yanında Temple Grandin gibi çok değerli bir şahsiyetin sunumuyla başlayan Singularity Summit 2012, arada sıkıcı sunumlar ya da ancak uzmanının anlayacağı sunumlarla ve arada bol kahkaha ile geçti. Özellikle Yapay Zaka üzerine yapılan tahminlerle ilgili dalga geçen Stuart Armstrong’un “Yapay Zeka ne zaman gerçekleşecek?” sorusuna verdiği “ tahminen 5 ila 200 yıl içerisinde” cevabı katılımcıları epeyi güldürdü. Stuart Armstrong’un eğlenceli bir kişiliği olduğu aslında Summit öncesi yayınladığı bir yazıda ortaya çıkmıştı. 2012 Temmuz’unda SingInst Yudkowski’nin LessWrong sitesinde Ray Kurzweil’ın öngörülerinin doğruluğu ile ilgili bir metin yayınladı. Bu metin Kurzweil’ın 1999 yılında gelecek 10 yıl ile ilgili öngörülerinin değerlendirilmesini içeriyordu. Kurzweil bu öngörülerde kendini yaklaşık %86 başarılı görürken, Armstrong bunun aslında %54 olduğunu yazıyordu. Yazısını da Kurzweil’ın iyi öngörü yapan ama fazla özgüvenli ve kendi isabetsizlerini itiraf etmekten ve bunları güncellemekten kaçınan birisi olarak tanımlıyordu. Zaten yazının başlığı da “iyi isabet, zayıf kişisel ölçümleme” olarak koymuştu.
2013 Ocak ayında ise Armstrong bu yazının devamını hazırladı. Bu sefer sadece kendisi değil, başka değerlendirmeciler de Ray Kurzweil’ın öngörülerindeki tutarlılığını değerlendirdi. Bu yazının sonucu da ilki gibi Ray Kurzweil’ı kızdıracak cinstendi, sonuç olarak Armstrong, Kurzweil için “ kabul edilebilir bir kahin ama kendini değerlendirmekte zayıf” diyordu.
Armstrong, Oxford merkezli Future of Humanity Institute (FHI)’da araştırmacı olarak çalışıyor. FHI ise alanın bir başka önemli ismi olan Nick Bostrom’un oyun alanı. Bostrom ve FHI meselelere biraz daha temkinli yaklaşıyor ve riskler konusunda onlar da çalışmalar yapıyor. Bu ekibe dahil olan Stuart Armstrong’un ilk yazısı ve Summit de konuşma yapması Kurzweil’ı kızdıran meselelerden biri de olabilir. SI, MIRI olunca da Armstrong aynı sonuca sahip ikinci yazıyı da bir nevi rövanş olarak piyasaya sürmüş olabilir. FHI ve MIRI ekibinin ortak çalışmaları da bir hayli fazla, hatta yeni tarihli bir Bostrom – Yudkowski çalışması bile bulunuyor. Sanki temkinliler ve hızlı gidelim diyenler arasında bir kamplaşma oluşmuş gibi.Tabi bunlar sadece olayların bizim tarafımızdan okunması, yoksa ortalık güllük gülistanlık da olabilir.
Temel sorun bu ekipler arasındaki hard take off / soft take off tartışması. SI / MIRI ve biraz da FHI, öngörülebilecek tehditler konusunu ortaya koyarken. Kurzweil ve diğerleri bunun gereksiz olduğu konusunda hemfikir gibiler. Yani sanki yapay zeka bulundu ama düğmesine basalım mı basmayalım mı tartışması gibi bir tartışma var ortada. Tabi asıl bir ayrım ise risklerden bahsedenlerin nispeten daha genç olmaları, ki en yaşlısı Bostrom bile henüz 40 yaşına yeni girdi. Ancak Kurzweil, Goertzel, de Garis gibiler yaşını başını biraz almış ve en kısa yoldan kendilerini ölümsüz yapma peşinde gibiler. Bu durumun başka nedenleri de olabilir. Bu Eliezer Yudkowski’nin sivrilmesi de olabilir, Peter Thiel ve Ray Kurzweil arasındaki bir zıtlık da olabilir. Ya da enstitünün çalışmalarının, Ray Kurzweil’in ortaya koyduğu “renkli rüyalar” konseptinin altını dinamitleyen “olacak da nasıl olacak” havası da olabilir. Ancak gördüğümüz sanki büyük ağabeyler masaya yumruklarını vurdular ve Singularity kelimesi bizim malımız dediler.
Diğer bir eğlenceli durum ise MIRI ismini alan SI’nin bunu açıkladığı yazı. Yazıda isim değiştirmenin marketing açısından faydalı olmadığını itiraf ederlerken bir taraftan da “bakın bizim gibi kısaltma isimleri olan çok merkez ve enstitü var” açıklaması ve Singularity Üniversitesi ile karışıyorduk sorunsalı, biraz bu duruma zorlandıklarını da ortaya koyuyor. Bu yazıda söyledikleri de biraz züğürt tesellisi tadı veriyor.
1 Ekim 2017
24 Eylül 2017
17 Eylül 2017