Asilomar Yapay Zeka İlkeleri

, 9 Şubat 2017

Future of Life Enstitüsü (FLI), geçtiğimiz Ocak ayında (2017), Calfornia’nın Asilomar sahilinde Faydalı Yapay Zeka başlıklı bir konferans düzenledi. Aslında bu konferans, 2015 yılında Porto Riko’da, yine FLI tarafından düzenlenen Yapay Zeka Güvenlik konferansının devam niteliğindeydi. Hatırlanacağı gibi geçtiğimiz yıllarda Elon Musk ve Stephen Hawking gibi önemli kişiler, yapay zekanın potansiyel tehlikelerine dikkat çekmişlerdi. Hatta bu endişeleri her-an.org olarak katıldığımız Exponential Finance 2015 toplantısında Neil Jacobstein’a sorduğumuzda, bize Porto Riko toplantısından bahsetmiş ve Elon Musk’ın da bu toplantıda olduğunu, pek çok şeyin konuşulduğunu anlatmıştı. Bu sene düzenlenen konferansa YZ konusunda çalışma yapan 100’den fazla akademisyen katıldı. Ray Kurzweil(Google), Nick Bostrom(FHI/Oxford), Elon Musk(Tesla/spaceX), Eliezer Yudkowsky(MIRI), Demis Hassabis(DeepMind), Jaan Talinn(CSER/FLI), Yann LeCun(Facebook/NYU) bir çırpıda sayabileceğimiz isimlerdi, ki Kurzweil dışındakiler 2015 yılındaki etkinlikte de bulunmuşlardı. Tabi ki sadece bu isimler değil alanında çok önemli çalışmalar yapan ve söz sahibi olan ekonomi, siyaset bilimi ve hukuk gibi dallardan da üst düzey kişiler bu etkinlikte yer aldı.

Sadece katılımcıların bu önem düzeyi ve uzmanlık çeşitliliği bile yeterince önemliyken, konferansı daha da önemli hale getiren şey, konferansın ardından Asilomar AI Principles adı altında yayınlanan ve YZ geliştirilmesi sürecine rehberlik edeceği belirtilen 23 ilke oldu. Bu 23 ilke tüm katılımcıların 5 günlük etkinlik boyunca yaptıkları konuşmalar ve tartışmalar sonucunda belirlendi ve bu ilkelerin belirlenme sürecinde, tartışmalar, anketler ve çalışmalar sonucu ortaya çıkan her bir ilke, katılımcıların en az %90’ı tarafından onaylanarak bu 23 ilkenin içine dahil oldu. Sonrasında da bu ilkeler bilim ve teknoloji dünyasından isimlerin imzasına sunuldu. Şubat ayı başına kadar yaklaşık 900 kadar YZ ve robotik uzmanı ile içlerinde özellikle bu konudaki endişelerini dile getiren Stephen Hawking ve Elon Musk’ın da bulunduğu farklı alanlarda uzmanlığı olan 1500’e yakın kişi bu ilkelerin altına imza attılar. Bunların arasında Türkiye’den de akademisyenler bulunuyor. Konferansın içeriğinin analizini ve bu kadar önemli ismi bir araya toplayan FLI konusunu gelecek yazılara havale edip, 23 ilkeden söz edelim.

Bu 23 ilke 3 ana başlıkta toplandı. Bunlar sırasıyla Araştırma Konuları, Etik ve Değerler ile Uzun Vadeli Konular olarak tanımlandı.

Araştırma Konuları

1- Araştırmanın Amacı: Yapay Zeka araştırmalarının amacı yönetimsiz bir zeka değil, faydalı bir zeka yaratmak olmalıdır.
2- Araştırma Fonlanması: YZ yatırımları beraberinde, fayda sağlamasını kesinleştirecek araştırmalara da fon sağlamalıdır, bu, bilgisayar bilimleri, ekonomi, hukuk, etik, sosyal bilimler hakkında aşağıdaki gibi zorlu sorulara cevap vermeyi içermektedir:
– Gelecekteki YZ sistemlerini nasıl yüksek derecede sağlamlaştırabiliriz ki, bizim istediğimizi yanlış çalışmadan ve hack’lenmeden yapabilsin?
– Otomasyon aracılığı ile refahımızı, insanların kaynaklarını ve hedeflerini sağlamaya devam ederek nasıl arttırabiliriz?
– Hukuk sistemimizi daha adil ve daha etkin olacak, YZ ile uyumlu ve YZ ile ilgili riskleri yönetebilecek şekilde nasıl güncelleyebiliriz?
– YZ hangi değer kümeleri ile uyumlu hale gelmeli ve nasıl bir hukuki ve etik statüsü olmalı?

3- Bilim – Politika Bağı: YZ araştırmacıları ve politikacılar arasında yapıcı ve sağlıklı bir değiş tokuş olmalı.
4- Araştırma Kültürü: YZ geliştiricileri ve araştırmacıları arasında, işbirliği, güven ve şeffaflık teşvik edilmeli.
5- Yarışmadan Kaçınma: YZ sistemleri geliştiren ekipler aktif bir işbirliği içinde olmalı ve güvenlik standartları konusunda kestirmeden gitmemelidirler.

Etik ve Değerler

6- Güvenlik: YZ sistemleri operasyonel yaşam süreleri boyunca güvenli ve sağlam olmalı, uygulanabilir ve elverişli olduğu alanlar doğrulanabilir olmalı.
7- Hata Şeffaflığı: Bir YZ sistemi zarara sebep olursa, nedenini bulmak mümkün olmalı.
8- Yargı Şeffaflığı: Bir otonom sistem, bir yargılamada karar verme sürecine dahil olursa, bu konuda yapacağı tatmin edici açıklaması insan bir uzman tarafından denetlenebilecek şekilde olmalıdır.
9- Sorumluluk: Gelişmiş YZ sistemlerinin tasarımcıları ve inşacıları, sistemin kullanımının, yanlış kullanımının ve eylemlerinin ahlaki sonuçlarında, bu sonuçları düzeltecek fırsata ve sorumluluğa sahip pay sahibidirler.
10- Değer Uyarlama: Yüksek seviyede otonom olan YZ sistemleri, tüm operasyonları süresince hedeflerinin ve davranışlarının insan değerlerine uygun olacağı bir şekilde tasarlanmalıdırlar.
11- İnsan Değerleri: YZ sistemleri, insan onuru, haklar, özgürlük ve kültürel çeşitlilik ideallerine uygun bir biçimde işleyecek şekilde tasarlanmalıdır.
12- Kişisel Mahremiyet: İnsanlar sağladıkları verilere erişim, yönetim ve kontrol ile YZ sistemleri üzerinden analiz etme ve faydalanma hakkına sahiptirler.
13- Özgürlük ve Mahremiyet: YZ’nın kişisel veriye uygulanması, insanların gerçek ya da anlaşılan özgürlüklerini gayrı makul bir biçimde azaltmamalı.
14- Paylaşılan Fayda: YZ teknolojileri mümkün olan en fazla insana fayda vermeli ve mümkün olan en fazla insanı güçlendirmeli.
15- Paylaşılan Refah: YZ’den kazanılan ekonomik refah geniş kitlelerle, tüm insanlara faydalı olacak şekilde paylaşılmalı.
16- İnsan Denetimi: İnsanlar, insanlar tarafından belirlenen hedefler için, kararı YZ’ye nasıl bırakacağını ya da bırakıp bırakmayacağını seçebilmeli.
17- Tahribatsızlık: Yüksek derecede gelişmiş YZ sistemleri ile ele alınan güç, sağlıklı bir toplumun dayandığı sosyal ve medeni süreçleri tahrip etme yerine onlara saygı duymalı ve onları geliştirmeli.
18- YZ Silahlanma Yarışı: Ölümcül otonom silahlar konusunda bir yarıştan kaçınılmalıdır.

Uzun vadeli Konular

19- Kapasite Önlemi: Bir ortak fikir olmadan, gelecekteki YZ kapasitelerinin üst limitleri konusunda güçlü varsayımlarda bulunmaktan kaçınılmalıdır.
20- Önem: Gelişmiş bir YZ, Dünya’daki yaşamın tarihinde köklü bir değişimin simgesi olabilir ve yeteri kadar ihtimam ve kaynakla yönetilmeli ve planlanmalıdır.
21- Riskler: YZ sistemlerinin oluşturdukları riskler, özellikle felaket benzeri ve varoluşsal riskler, beklenen etkilerine uygun bir biçimde planlama ve azaltma çabalarına konu olmalı.
22- Yineleyen Kendini Geliştirme: Yinelenen bir biçimde kendini geliştiren ya da kopyalayan ve çok hızlıca nitelik ya da nicelik olarak büyüyebilecek YZ sistemleri, kesin güvenlik ve denetim önlemlerine tabi olmalı.
23- Ortak Fayda: Süperzeka sadece geniş olarak paylaşılan etik değerlere hizmet amacıyla geliştirilmeli ve bir devlete ya da örgüte değil, tüm insanlara faydalı olmalı.

Gelecek yazımızda bu ilkelerin analizini yapıp, bu kadar büyük ismi buluşturan FLI’ya biraz daha yakından bakacağız.

Bir cevap yazın

E-posta hesabınız yayımlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir

This site uses Akismet to reduce spam. Learn how your comment data is processed.