Yapay Zeka Kıyametini Engellemek İçin 23 Yol

Oğuz Taktak 25.10.2017

Yapay zeka uzmanları, filmlerde izlediklerimiz gerçeğe dönüşmesin diye robotların dünyayı ele geçirmesini engellemeye çalışıyor...

Daha önce Stephen Hawking ve Elon Musk gibi tanıdık kişilerin de dikkat çektiği bu konuyu tartışmak üzere Kaliforniya’nın Asilomar sahilinde bir araya gelen uzmanlar, gelecekteki yapay zeka araştırmalarını yönlendirmek üzere 23 prensip üzerinde anlaşma sağladı.

Maddeler; araştırma konuları, etik ve değerler, uzun vadeli konular gibi çeşitli başlıklara ayrıldı. Bu başlıklar altında bilimcilerin hükümetlerle hangi şartlar altında çalışacağından, ölümcül silahların nasıl kullanılması gerektiğine kadar pek çok farklı konuya değiniyor.

Yapay Zeka Kıyametini Engellemek İçin 23 Yol

Araştırma Konuları:

1.Araştırmanın amacı: Yapay zeka araştırmasının amacı kontrolsüz bir zeka değil, faydalı bir zeka geliştirmek olmalıdır.

2.Araştırma Fonlaması: Yapay zekaya yapılacak yatırımlar, teknolojinin yararını belirlemeye yönelik çalışmalar için gerekli fonlamaları da içermelidir. Bu çalışmalar, bilgisayar bilimleri, ekonomi, hukuk, etik ve sosyal çalışmalar konusunda, aşağıdaki gibi sorulara yanıt bulmak için yapılabilir:

-Gelecekte yapay zeka sistemlerini; hacklenmeden, bizim istediğimiz gibi çalışacak şekilde nasıl geliştirebiliriz?

-İnsanların kaynaklarını ve amaçlarını yok etmeden, otomasyonu kendi refahımızı artırmak için nasıl kullanabiliriz?

-Yasal sistemimizi yapay zeka ile uyumlu ve etkili bir şekilde çalışacak hale nasıl getirebiliriz?

-Hangi değerler yapay zeka ile ilişkilendirilmeli, yapay zeka hangi yasal ve etik konumlara sahip olmalıdır?

3.Bilim-Siyaset İlişkisi: Yapay zeka araştırmacıları ve siyasetçiler arasında yapıcı ve sağlıklı bir ilişki olmalıdır.

4.Araştırma Kültürü: Yapay zeka araştırmacıları ve geliştiriciler arasında bir iş birliği, güven ve şeffaflık kültürü oluşturulmalıdır.

5.Yarıştan Kaçınma: Yapay zeka sistemleri geliştiren ekipler aktif bir şekilde iş birliği içinde olmalı ve güvenlik standartları konusunda kolaya kaçmak engellenmelidir.

Etik ve Değerler

1.Güvenlik: Yapay zeka sistemleri, yaşam süreleri boyunca güvenli ve sağlam olmalıdır.

2.Hata Şeffaflığı: Bir yapay zeka sistemi zarara sebep olursa, bunun sebebinin bilinebiliyor olması gereklidir.

3.Yasal Şeffaflık: Herhangi bir otonom sistemin, yargı kararlarına dahil olması durumunda tatmin edici bir açıklama sunulmalı ve bu açıklama bir insan yetkili tarafından denetlenebilir olmalıdır.

4.Sorumluluk: Gelişmiş yapay zeka tasarımcıları be üreticileri, bu ürünlerin kötüye kullanımı ve eylemleri sebebiyle ortaya çıkan ahlaki sonuçlarda pay sahibidir. Bu sonuçlar hakkında sorumlulukları ve bunları düzeltme imkanları bulunmalıdır.

5.Değer Belirleme: Yüksek derecede otonom yapay zeka sistemleri, amaçları ve davranışları insan değerleri ile eşdeğer olacak şekilde tasarlanmalıdır.

6.İnsan Değerleri: Yapay zeka sistemleri, ideal insani saygınlık, haklar, özgürlükler ve kültürel çeşitlilikler ile uyumlu bir şekilde tasarlanmalı ve yönetilmelidir.

7.Kişisel Mahremiyet: İnsanların ürettikleri verilerin hangilerinin yapay zeka sistemlerine verileceğini belirleme ve kontrol etme hakkı olmalıdır.

8.Özgürlük ve Mahremiyet: Yapay zekanın kişisel verilere uygulanması, kişilerin gerçek ya da algılanan özgürlüklerini sebepsiz yere kısıtlamamalıdır.

9.Ortak Fayda: Yapay zeka teknolojileri mümkün olduğunca çok kişiye fayda ve güç sağlamalıdır.

10.Ortak Refah: Yapay zeka tarafından oluşturulan ekonomik refah, geniş çevrelerce paylaşılmalı ve tüm insanlığa fayda sağlamalıdır.

11.İnsan Kontrolü: İnsanlar kararları yapay zeka sistemlerine ne zaman ve ne şekilde bırakacaklarını kontrol edebilmelidir.

12.Tahribat Karşıtlığı: İleri yapay zeka sistemleri tarafından kontrol edilen güç, toplumların sağlıklı yaşamının temel taşı olan toplumsal ve sivil süreçlere saygılı olmalı ve geliştirmeli, bu süreçleri tahrip etmemelidir.

13.Yapay Zeka Silahlanma Yarışı: Ölümcül otonom silahlanma yarışı oluşması engellenmelidir.

Uzun vadeli konular

1.Kapasite Önlemi: Herhangi bir fikir birliği olmadan, gelecekteki yapay zekaların yeteneklerinin üst sınırı konusunda güçlü tahminlerde bulunmaktan kaçınılmalıdır.

2.Önem: İleri yapay zeka, insanlığın Dünya üzerindeki yaşam tarihinde önemli değişikliklere sebep olabilir. Buna göre yönetilmeli ve düzenlenmelidir.

3.Riskler: Yapay zeka sistemleri tarafından ortaya konulan yıkıcı ya da varoluşsal riskler plan dahilinde, beklenen etkisinin ölçüsüyle orantılı bir şekilde azaltılmaya çalışılmalıdır.

4.Tekrarlanan Öz-gelişim: Sayısını ve kalitesini hızla artıracak şekilde kendisini sürekli geliştirecek ve yeniden üretecek şekilde tasarlanmış yapay zeka sistemleri katı güvenlik ve kontrol önlemlerine tabi olmalıdır.

5.Ortak Çıkar: Süperzeka sistemleri sadece insanlığın geneli tarafından kabul görmüş etik idealler ve tüm insanlığın faydası için geliştirilmelidir. Bir ülke ya da bir organizasyon için değil.

Yorum yazmak için giriş yapmalısınız.

Bu habere henüz site içi yorum yazılmamış.

Gazetemsi
Facebook'ta takip et Twitter'da takip et Youtube'da takip et Instagram'da takip et

©2016 Gazetemsi.com. Her hakkı saklıdır.