AGI – 2

, 22 Mayıs 2013
AGI - Tekno-put projesi

AGI – Tekno-put projesi

Geçtiğimiz yıl AGI konferansı İngiltere’nin Oxford şehrinde, bu şehrin meşhur üniversitesinin ev sahipliğinde gerçekleşti. Etkinliğin kapsamı daha öncekilere göre genişletilmişti ve içerisine AGI-Etkileri isimli farklı bir gündem eklenerek AGI alanındaki gelişmelerin (eğer umdukları sonuca ulaşabilirlerse) insanlık üzerinde nasıl olumsuz etkiler ve riskler çıkarabileceği tartışıldı.

Detaylara geçmeden konuya vakıf olabilmeniz için ilgili ilk yazıyı (AGI – 1) okumanızı tavsiye ederim. Kısaca AGI bir tekno-put geliştirme projesi ve bunu gerçekleştirmek için çalışan bilim insanları her sene dünyanın farklı bir şehrinde bir araya gelip meseleyi olgunlaştırmaya çalışıyorlar.

Her-an olarak yakından takip etmeye çalıştığımız bu organizasyonu 4 gün boyunca izledik, bitiminde de Nick Bostrom ile bir röportaj yaptık.

Özet

Detayları fazla teknik olabileceği için ilk başta konunun tehlike ve önem arz eden kısa özeti ile başlayalım.

Meselenin AGI tarafında teknik olarak vaad ettikleri teknolojiyi gerçekleştirmekten oldukça uzaklar ve şu anda tartıştıkları temel nokta “ne kadar mesafe aldığımızı nasıl ölçeriz?”. Ben Goertzel’in ifadesi ile varmak istedikleri zirveye ulaşabilecekleri bir çok farklı yol var ve olabildiğince farklı alanlardan yararlanmaya çalışıyorlar kimisi dil üzerinden, kimisi psikoloji ve bilişsel modeller üzerinden kimisi nörolojik bilimler ve beynin yapısı üzerinden kimisi de robot teknolojisi üzerinden farklı yollarla AGI teknolojisine ulaşmaya çalışıyor.

Geldikleri noktada gösterebilecekleri somut birşey olmamasına rağmen Goertzel bu durumu roket yapımına benzetiyor, tam çalışır hale gelmeden birşey göremeyeceğimizi söylüyor.

Genel olarak inatçı iyimserler (kendi tabirleriyle pragmatik vizyonerler) ve şüpheciler olarak ikiye ayırabiliriz katılımcıları. Yapay zekanın bir dönem yıldızının parlayıp daha sonra sönmesi ile birlikte akademi yapay zeka konusunda gaza gelmemeye dikkat ediyor gibi görünüyor. Bu yüzden etkinlikte elle tutulur herhangi bir gelişme olmaması özellikle eleştirilen temel konulardan biriydi.

Bununla birlikte inatçı iyimserler (bu grubun başını Ben Goertzel çekiyor) tüm imkanları ile mesafe almak adına gayret sarfediyorlar. İki farklı alanda çalışan Ben Goertzel ve David Hanson kısa vadede sonuç almayı umdukları bir proje üzerinde çalışıyorlar. Ben Goertzel kısa süre içinde 4 yaşında bir çocuğun zekasına denk bir yapay zeka geliştirebileceklerini iddia ederken bunu David Hanson’un üzerinde çalıştığı robot oyuncaklara entegre edip çocukların yanına bir arkadaş gibi koymayı hedefliyorlar. Dediklerini yapabilirlerse bu teknolojinin bir çok alıcısı olacaktır özellikle Disney gibi bir gücün elinde böyle bir oyuncak birçok eve girip çocukların en yakın arkadaşı(!) olabilir.

Güncelleme: Robokind’ın daha önce yazıda kullandığımız tanıtım videosu yayından kaldırılmış, çocukların en yakın arkadaşı söylemi yerine de otizme çare olarak üretilen robotlar şeklinde değiştirmişler. Aşağıdaki video eski çalışmalarını gösteren bir tanıtım.

Sanırım AGI ekibinin en çok başını ağrıtan mesele bu işin sonunun nasıl tehlikeler doğurabileceğine dair gün geçtikçe yükselen sesler. İşin ilginç yanı bu seslerin bir kısmı eski adı Singularity Enstititüsü Yapay Zeka birimi olan başını Eliezer Yudkowsky’nin çektiği ekipten geliyor. Bu sesler Ray Kurzweil’i çok kızdırmış olacak ki Singularity ismini kullanmalarına daha fazla izin vermeyip ellerinden aldı, kurumun yeni adı MIRI oldu. Bu konuyla ilgili detaylı bir analiz yazımız geleceği için şimdilik bu kadar bahsetmiş olalım.

Tehlikelere karşı sesini yükselten diğer bir kurum ise Nick Bostrom başkanlığındaki İnsanlığın Geleceği Enstititüsü (FHI). Özellikle etkinliğin ikinci bölümü olan AGI Etkileri oturumlarında “dost yapay zeka” yapmanın ne kadar önemli olduğu ve buna şimdi dikkat edilmezse felaket sonuçların ortaya çıkabileceği tartışıldı. Elbette burada şuna da dikkat çekmek gerekiyor karşı çıkanlar da bu teknoloji geliştirilsin diyor ve belki öyle bir hale gelsin ki dünya devletlerinin kontrolü bile bu yapıya teslim edilsin diyorlar (Bostrom’un Singleton teorisi) ama dikkat edilmesi gerektiğini söylüyorlar bir nevi erken yol kazasına karşı önlem almaya çalışıyorlar da diyebiliriz.

Goertzel iyimserliğini teknolojinin gelişim süreci ile ilgili tahminlerinde de ortaya koyuyor.  Kendi planına göre şöyle ifade ediyor:

– 2019-2021: İnsan seviyesinde zekaya sahip AGI

– 2021-2023: Kendi kendini geliştirme yetisine erişen AGI (bundan sonrası tekno-put haline geçiş olarak okunabilir)

Bu genel özetin ardından detaylara geçebiliriz.

AGI 12 – 1. Gün

Sabah 8:30 da Ben Goertzel’in kısa tanıtım konuşması ile başladı etkinlik,  organizasyonun AGI tarafının koordinasyonu sağlayan Goertzel, etkinliğin 2006’daki bir seminer ile başladığı devamında ilk konferansın 2008 de yapıldığı gibi bilgilerle kısaca tarihçesini anlattı.

Etkinliğin 2013 yılında Çin’in Şangay kentinde yapılacağı duyuruldu. Çin özellikle bu konuya enteresan bir şekilde ilgi gösteriyor AGI üzerine çalışan iki önemli ismin (Ben Goertzel ve Hugo de Garis) Çin’de yaşaması ve organizasyonu Çin’e taşımaları dünyanın ekseninin de ne tarafa kaydığını gösteriyor. Çin belli ki teknolojik üstünlüğü ve uluslararası liderliği almak istiyor, yapay zekanın Çin ya da Kuzey Kore gibi ülkelerin elinde şekillenmesi bizi bir kat daha endişeye sevk ediyor.

Goertzel kendi sunumunda daha detaylı açıklayacak ama açılış konuşmasında önümüzdeki 5-10 senede AGI konusunda çok önemli gelişmeler olacağını söyledi. Şu anda yapay zeka adeta kış mevsimini yaşıyor, bir zamanlar nasıl moleküler biyoloji ve yarı iletkenler herkesin ilgisini çektiyse bu konuda yakında daha popüler olacak diyor.

ilk konuşmacı, Margaret Boden

Açılış konuşmasını neden bu hanımefendiye verdiklerini çok anlayamadım ama “Singularity Summit”‘e benzer bir durum var, orada da ilk konuşmacı Temple Grandin idi ve genel iyimser havanın aksine şeyler söyledi. Margaret Boden çok daha sivri ve keskin bir şekilde insanların iyimserliğini eleştirdi, kısaca niyetiniz iyi güzel ama bu hedefleri gerçekleştirmek neredeyse imkansız dedi.

“Yaratıcılık ve AGI” konusunda sunum yapan ve bilimsel düzlemde yaratıcılığı değerlendiren Boden konuşmasının sonuna doğru AGI yaklaşımında çığır açabilmek için gereken temel özelliklerin eksikliğinden bahsederek eleştirilerine başladı. Ben Goertzel burada söze girip Kurzweil’den ve meşhur üstel büyüme eğrisinden bahsetti, Boden buna karşılık Kurzweil’in bütün fikirleri gibi bu üstel büyüme meselesini da saçma bulduğunu söyledi, ve konuşmasını yaşına yakışır bir büyükanne tavsiyesi ile bitirdi: “Nefesinizi fazla tutmayın, boğulursunuz”. (Konuşmanın bitiminde masadan kalkarken toplantı videolarında istenilen bölümlerin kesilip verileceği anons edildi, Boden’de araya girerek Kurzweil hakkında kötü sözler sarfettiğim kısmı kesin o zaman diyerek salondakilere tebessüm ettirdi)

Boden daha sonra diğer sunumlarda da aktif olarak eleştirilerine devam etti, özellikle David Hanson’a sunumu sonrasında yüklendiğinde Hanson cevap vermekte oldukça güçlük çekti.

Boden’in sunumu ile ilgili detaylı bilgiye buradan ulaşabilirsiniz.

Bu arada singularity ekibinden (ya da eski singularity ekibi demem daha doğru olur ) Mulhauser, Jaan Tallinn ve 3-4 genç arkadaş etkinliği yakından takip ediyor, ama anladığım kadarıyla yıldızları sönmüş kimseden ekstra ilgi görmediler. Katılımcıların çoğu akademisyenler ve öğrencilerden oluşuyor.

Angelo Congelosi

İtalyan asıllı Congelosi, Plymouth üniversitesinde bilişsel robotlar üzerine çalışıyor, adeta bir çocuğu eğitir gibi robotlara da aynı tekniklerle eğitim vermeye çalışıyorlar ve sonuçları insanların eğitimi ile karşılaştırıyorlar.

Çalışmalarla ilgili detaylı bilgiler için: http://www.robotcub.org/  – http://www.italkproject.org/

Angelo da Boden gibi eleştirel tarafta yer alıyor ama onun kadar keskin eleştirilerde bulunmuyor ben robotik uzmanıyım işin felsefi yönüne dair yorum yapmak istemiyorum dedi.

Congelosi ile sunumu sonrası konuşma fırsatım oldu, ODTÜ’den Erol Şahin’le çalıştığını ve ekibinde de yine ODTÜ mezunu bir Türk olduğunu söyledi, ikili konuşmamızda yine AGI konusunda pek iyimser olmadığını yineledi.

David Hanson

Disney’de çalıştıktan sonra kendi robot üretim şirketini kuran David Hanson bu alandaki en etkileyici işleri çıkaranlardan biri. Günümüzde nadir görülen hem teknik hem sanat becerilerine sahip birisi robotların hem görsel tasarımları ile uğraşıyor hem de teknik özelliklerini geliştiriyor. (hemen önüme oturduğunda kağıda karaladığı figürlerden sanata ve estetiğe olan yatkınlığını bununla birlikte el yazısının ne kadar kötü olduğunu gördüm ) Singularity’nin finansal kaynaklarından destek aldığını görüyoruz, Terasem isimli ölümsüzlük vakfının kurucusu milyarder Martina Rothblatt’ın eşinin (Martina cinsiyet değiştirdikten sonraki adı dolayısıyla eşi bir bayan) robotunu yapmış,  Bina48, salonda onunla da bir gösteri yaptı.

Bina48

Bina48

Amacını insanı geride bırakacak kreatif dahi seviyesinde bir AGI geliştirmek olarak açıkladı. 

Disney’de çalışırken Frubber diye bir materyal geliştirmiş, kendi yaptığı robotlarda bunu kullanıyor ve gerçekten korkutucu derecede gerçek görünüyorlar.

Bundan daha korkutucu olan ise  yazının başında da belirttiğim gibi RoboKind isiminde geliştirmekte olduğu ürün, bu tamamen çocukların yanına bir arkadaş olarak verilecek küçük robotları kapsıyor.

RoboKind: http://hansonrobokind.com/

Sunumun son kısmında Bina48 ile şov yapmak istedi ama sorulan sorulara verdiği cevaplar çok anlamlı olmadı, tabi bunun üzerine Boden eleştirileri ile bombalamaya devam etti, sorduğunuz soruları bile anlamayan birşeyle sizin hedefleriniz arasında kocaman uçurum var dedi, bir de RoboKind’ı eleştirererek insan-insana etkileşimi ortadan kaldırmaya çalışmakla suçladı Hanson’u. Hanson mizacı gereği çok kavgacı ya da sivri bir tip olmadığı için Boden eleştirel cephe adına bir sayı daha kazandı.

Hanson’dan sonra öğle arası verildi, aradan sonra beklenen isim, Nick Bostrom.

Nick Bostrom

Kendi konuşmasını yapana kadar ortalıkta görünmedi.

Konuşması AGI’nin kontrol altına alınması için ne gibi yöntemler kullanılabileceği üzerineydi.

Genel olarak iki evreden bahsediyor, biri geliştirme evresi diğeri ise AGI kullanıma geçtikten sonraki aşama. Burada ilginç bir terimi var Bostrom’um, “oracle”, yani kahin olarak görüyor bu geliştirilecek zekayı, ilk başta kendisine bazı sorular soracağız ve bunların yanıtlarını verecek diyor. (hatta belki de sadece evet ya da hayır olacak bunlar), bu yüzden yine bu bağlamda iki ihtimalden bahsediyor,  aceleci(superzeka’ya çok hızlı ulaşacağız yaklaşımı) diğeri ise ihtiyatlı (superzeka’ya oldukça uzun ya da zor bir yoldan ulaşacağız yaklaşımı).

Her halükarda AGI’ın varoluşsal risk (insanlığın yok olması riski) taşımaması için alınacak tedbirleri iki ana başlıkta topladı.

Kapasite kontrolü:

  • Kutulama: Fiziksel kısıtlama ve bilgisel kısıtlama olarak ikiye ayırdı.
  • Teşvik: Sosyal entegrasyon (ihtiyatlı yaklaşıma daha elverişli, AGI yavaş yavaş gelişirken insanlarla etkileşim kursun, kurallar da bu etkileşim üzerinden tedrici olarak belirlensin), Ödül tuşu (AGI geliştirilirken yararlı işler yaptığında ödüllendirilsin)
  • Gelişmesini engelleme.
  • Tetikleme teli: Otomatik Kapasite Testi

Motivasyon Seçimi

  • Süslü gösterme, yani AGI’ın yapacağı seçimleri insanların yararına olacak şekilde süsleme
  • Direk Tanımlama, kuralları detaylandırma.
  • Evcilleştirme
  • Dolaylı kuralcılık

 

Konuşması sonrasında sorulan sorular adeta Bostrom robotların özgürlüğünü kısıtlamaya çalışan biriymiş gibi yöneltildi, hatta bir tanesi insanlar da halihazırda zararlı yaratıklar onları da mı böyle kısıtlamamız lazım gibi akla ziyan yaklaşımlarda bulundu. Büyük ölçüde bunun nedeni Bostrom’un çalışmalarını takip etmeyenler sadece bu sunum üzerinden değerlendirme yaptıkları için Bostrom’u bu işin karşısında görmüş olabilirler.

Bostrom’dan sonra benim için fazlaca teknik olan bilişsel modeller üzerine 4 farklı mühendis çıkıp sunumlarını yaptılar sonrasında hepsi bir arada sorulara cevap verdi. Burda yöneltilen eleştirilerden biri hepsininin farklı bir model kurması idi, bu da aslında insan sayısı kadar bilişsel model çıkabilir savına götürebilir bizi (her insan ayrı bir alem). Burada da muhtemelen (daha önce bilgisayar teknolojilerinde olduğu gibi) ilk önce etkili birşeyler ortaya koyan (sonradan pişman olunsa bile) sazı eline alıp devam edecek gibi görünüyor.

 Ben Goertzel

Organizasyon boyunca yüzünde sürekli bir tebessüm vardı, onca eleştiriye rağmen iyimser tavrını hiç bozmadı. Ben Goertzel ve ekibi geliştirdikleri açık kaynaklı OpenCog altyapısı ile robotik ve oyun alanlarında kullanılmak üzere herkese açık kaynaklı bilişsel sistem geliştirme imkanı veriyor. Bu sistemi detaylı anlattığı “Daha gelişmiş zihinler inşa etmek / Building Better Minds” kitabı önümüzdeki aylarda çıkacakmış. Konuşması sırasında sürekli Margaret Boden’a cevap olacak argümanlar kullandı, “bir roket yaparken bitmeden ateşlerseniz nasıl havada patlarsa, AGI’den de bu aşamada bitmiş gibi şeyler çıkmasını beklemeyin” derken bir yandan da seneye çok daha elle tutulur gelişmeler olacağını ifade etti.

"Robot aptal insanı öldürür" - Çinli Pei Wang'ın sunumunda kullandığı örnek

“Robot aptal insanı öldürür” – Çinli Pei Wang’ın sunumunda kullandığı örnek

 

Bir cevap yazın

E-posta hesabınız yayımlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir

This site uses Akismet to reduce spam. Learn how your comment data is processed.