alldesign 2015 – 2

, 25 Mart 2015

ALİ MUSA ARSLAN – Fuarın normalde ikinci günkü konuklarından biri de Oxford Üniversitesi’nde felsefe profesörlüğü yapan insanlığın geleceği, gelecek teknolojilerinin sonuçları üzerine çalışmalar yapan ve 100den fazla eser yayınlamış bulunan Nick Bostrom’du. Fakat kendisi kar nedeniyle fuarın ikinci günü İstanbul’a gelememiş, bu sebeple konuşması üçüncü güne ertelenmişti.

Bostrom_alldesign

 

Sahneye çıkar çıkmaz bir acelesi varmışçasına hızlıca bir girizgah yaptıktan sonra anlatacağı konuya geçti. Konferans grafikleriyle, konularıyla üzerine saatlerce konuşulabilecek akademik konuların 40dkya sığdırılmış haliydi. İlk olarak insanlığın karşılaşabileceği küresel felaketlerden bahsetti ve bunu son kitabının da ana unsurunu teşkil eden süperzeka ile irtibatlandırdı. Bostrom’a göre teknolojik olgunluğa ulaştığımızda önümüzde uzayı kolonize edeceğimiz binlerce yıl sürecek bir dönem olabilir fakat bunun tersi bir senaryo ile de karşılaşabiliriz. Ve konuşmasını da bu kötü sonlu senaryo üzerine yaptı. Daha önce Ted’de yaptığı konuşmasında olduğu gibi ölümün insanlığın en büyük sorunu olduğunu iddia ederek konuya giriş yaptı. Ve grafikte olduğu gibi risk kategorilerini sıraladı.

bostrom_grafik

Bostrom varoluşsal riski dünya merkezli, düşünsel faaliyet gösteren hayatın yok olması veya temelli ve sert bir biçimde potensiyelinin azalması olarak tanımlıyor. Küresel bir felaketin dünyayı bulmasıyla insanlığın yok olmakla karşı karşıya kalması riskidir. Bu dünya nüfusunun artması gibi bir durum değildir. Yani bu sonumuzu getirmeyecektir. Varoluşsal risk esasen bundan çok farklı bir şeydir. Toplumun bir kesimi değil bütün insanlığın yok olması riskinden bahsediyoruz. Ve bu varoluşsal riski en aza indirmek için çaba göstermemiz gerektiğini vurgulamakta. Bunla ilgili de ilginç bir tespit gösterdi; bugüne kadar yapılmış akademik çalışmalarda varoluşsal risk çok konu edilmiş; akademinin daha fazla uğraştığı konular üzerine örnek verecek olursak sırasıyla gübre böceği, snowboard kimyasal bileşim olan zinc oxalate gelir, varoluşsal risk bunlardan sonra yerini alabiliyor. Bostrom varoluşsal riskin 2 farklı kaynaktan gelebileceğini söylüyor. İlk ihtimal doğa kaynaklı bir felaket olması(meteor çarpması, süper volkanik patlamalar). Bu ihtimalin her zaman varolduğundan fakat bunun bir varoluşsal risk teşkil etmesinin çok çok düşük ihtimal olduğunu asıl sorunun ikinci varoluşsal risk kaynağı olan insan kaynaklı (antropojenik) bir felaket (nükleer savaş, bioterörizm) olacağını düşünüyor. Teknolojik gelişmelerle birlikte muazzam bir güce ulaştık ve bu da sonumuzu getirebilir. Şu anda pek çok riskli teknolojinin temelleri atılıyor. Bunlara örnekler de verdi; makine yapay zekası, sentetik biyoloji, moleküler nanoteknoloji, zararlı tekniğin sebep olduğu bir totalitaryenizm (buna biraz daha açıklık getirdi; tarih boyunca teknoloji farklı yönetim biçimlerinin çıkmasına neden olmuştur, örneğin ateşli silahların ortaya çıkmasıyla kale devri kapanmış dünya farklı bir yere yönlenmeye başlamıştır, belki gelecekte de bazı teknolojik gelişmeler olacak sistemler değişecek, dünya şu an hiç tahmin etmediğimiz bir yere yönlenecek), insan üzerinde değişiklik yapma, geoengineering (dünyanın bozulan düzeninin insan müdahalesiyle geri çevrilmesi, teknoloji yardımıyla iklim yönetimi), bilmediğimiz yeni şeyler. Bilmediğimiz şeyleri yazmasının sebebi olarak nasıl 30 yıl önce burada saydıklarımızı sayamayacaksak ileride de neyle karşılaşacağımızı bilemeyiz, dolayısıyla bilinmedik ihtimallerin de her zaman göz önünde bulundurulması gerektiğini belirtiyor.

Daha sonra meseleyi buradan süperzeka icad edebilmemize bağlıyor. Bostrom’a göre bir süperzeka icad edebilecek teknolojiye sahip olursak bunun risklerinde korunacağımız bir panzehirine sahip oluruz. Bunu teknolojik gelişmelerdeki diferansiyel prensibi ile açıklıyor. Dünyayı tehdit eden bir virüs ortaya çıkarsak, bunun aşısını da bulabileceğimiz teknolojiye sahibiz anlamına gelir. Ancak yine de meselenin bu kadar basite indirgenmesinin yanlış olduğunu ekliyor. Aslında bu ikisi arasında geçen vakit de çok önemlidir. Karşıtının bulunmasına kadar geçebilecek bir kaç ay, gün bile çok şeyi değiştirebilecek, sonumuzu getirebilecektir. Bu ihtimalin de göz önünde bulundurulması gerekmektedir.

Süperzekaya giden iki yol bulunmaktadır; biri biyolojik gelişimle ulaşacağımız süperzeka diğeri makine zekası. Biyomedikal gelişmelerin 10-15 seneye zekayı anlam ifade eder biçimde arttıracağı öngörülebilir. Fakat Bostrom’a göre makineleri beyne eklemek çok makul değil, beynin içinde bir google’a niye ihtiyaç duyulsunki zaten arabirimler(interface) var, açarsın bakarsın. Bu sebeplerle cyborg yolu Bostrom’un düşüncesinde pek mümkün değil. Buna karşın makine zekasıyla buna ulaşılması daha mümkün. Ve tabi bu da büyük bir varoluşsal risk taşıyor. Bizden daha “zeki” olmaları da bunun gerekçesi oluyor.

Bostrom sahneden ayrılmadan önce sunucu terminator, matrix filmlerin gerçeğe dönüşebileceğine inanıyor musunuz diye sordu. Bostrom Hollywood’un örnek gösterilmemesi gerektiğini, filmlerin asıl endişelenmemiz gereken meseleleri yanlış yerlere kaydırdığını belirtti. Mesela bu bahsettiğimiz yapay zeka karşısındakini alt etmek için makineli silah kullanmayacaktır. Tesadüfi olarak bazı öngörüleri doğru çıkabilir fakat dayanak olabilecek öngörüleri bulunmamaktadır.

Bir cevap yazın

E-posta hesabınız yayımlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir

This site uses Akismet to reduce spam. Learn how your comment data is processed.