Sosyal Medya

Güncel

Yapay zekanın dünyayı ele geçirmesini engellemek için 23 yol

Dünyanın en başarılı yapay zeka uzmanları yapay zekanın aşırı gelişip dünyayı ele geçirmemesi için bir araya geldi ve 23 maddelik bir bildiri hazırladı.



Bilim kurgu kitapları ve filmlerinin vazgeçilmez konularından birisi, robotların insanlardan daha zeki hale gelip dünyayı ele geçirmesidir. Dünyanın en baÅŸarılı yapay zeka uzmanları da bu felaket senaryosunun gerçeÄŸe dönüÅŸmemesi için bir araya geldi.

Daha önce Stephen Hawking ve Elon Musk gibi tanıdık kiÅŸilerin de dikkat çektiÄŸi bu konuyu tartışmak üzere Kaliforniya’nın Asilomar sahilinde bir araya gelen uzmanlar, gelecekteki yapay zeka araÅŸtırmalarını yönlendirmek üzere 23 prensip üzerinde anlaÅŸma saÄŸladı. Maddeler; araÅŸtırma konuları, etik ve deÄŸerler, uzun vadeli konular gibi çeÅŸitli baÅŸlıklara ayrıldı. Bu baÅŸlıklar altında bilimcilerin hükumetlerle hangi ÅŸartlar altında çalışacağından, ölümcül silahların nasıl kullanılması gerektiÄŸine kadar pek çok farklı konuya deÄŸiniyor. Maddeler ÅŸu ÅŸekilde:

Araştırma konuları
 
AraÅŸtırmanın amacı: Yapay zeka araÅŸtırmasının amacı kontrolsüz bir zeka deÄŸil, faydalı bir zeka geliÅŸtirmek olmalıdır.
 
AraÅŸtırma Fonlaması: Yapay zekaya yapılacak yatırımlar, teknolojinin yararını belirlemeye yönelik çalışmalar için gerekli fonlamaları da içermelidir. Bu çalışmalar, bilgisayar bilimleri, ekonomi, hukuk, etik ve sosyal çalışmalar konusunda, aÅŸağıdaki gibi sorulara yanıt bulmak için yapılabilir:
 
Gelecekte yapay zeka sistemlerini; hacklenmeden, bizim istediÄŸimiz gibi çalışacak ÅŸekilde nasıl geliÅŸtirebiliriz?
 
Ä°nsanların kaynaklarını ve amaçlarını yok etmeden, otomasyonu kendi refahımızı artırmak için nasıl kullanabiliriz?
 
Yasal sistemimizi yapay zeka ile uyumlu ve etkili bir ÅŸekilde çalışacak hale nasıl getirebiliriz?
 
Hangi değerler yapay zeka ile ilişkilendirilmeli, yapay zeka hangi yasal ve etik konumlara sahip olmalıdır?
 
Bilim-Siyaset Ä°liÅŸkisi: Yapay zeka araÅŸtırmacıları ve siyasetçiler arasında yapıcı ve saÄŸlıklı bir iliÅŸki olmalıdır.
 
AraÅŸtırma Kültürü: Yapay zeka araÅŸtırmacıları ve geliÅŸtiriciler arasında bir iÅŸ birliÄŸi, güven ve ÅŸeffaflık kültürü oluÅŸturulmalıdır.
 
Yarıştan Kaçınma: Yapay zeka sistemleri geliÅŸtiren ekipler aktif bir ÅŸekilde iÅŸ birliÄŸi içinde olmalı ve güvenlik standartları konusunda kolaya kaçmak engellenmelidir.
 
Etik ve DeÄŸerler
 
Güvenlik: Yapay zeka sistemleri, yaÅŸam süreleri boyunca güvenli ve saÄŸlam olmalıdır.
 
Hata Şeffaflığı: Bir yapay zeka sistemi zarara sebep olursa, bunun sebebinin bilinebiliyor olması gereklidir.
 
Yasal Åžeffaflık: Herhangi bir otonom sistemin, yargı kararlarına dahil olması durumunda tatmin edici bir açıklama sunulmalı ve bu açıklama bir insan yetkili tarafından denetlenebilir olmalıdır.
 
Sorumluluk: GeliÅŸmiÅŸ yapay zeka tasarımcıları be üreticileri, bu ürünlerin kötüye kullanımı ve eylemleri sebebiyle ortaya çıkan ahlaki sonuçlarda pay sahibidir. Bu sonuçlar hakkında sorumlulukları ve bunları düzeltme imkanları bulunmalıdır.
 
DeÄŸer Belirleme: Yüksek derecede otonom yapay zeka sistemleri, amaçları ve davranışları insan deÄŸerleri ile eÅŸdeÄŸer olacak ÅŸekilde tasarlanmalıdır.
 
Ä°nsan DeÄŸerleri: Yapay zeka sistemleri, ideal insani saygınlık, haklar, özgürlükler ve kültürel çeÅŸitlilikler ile uyumlu bir ÅŸekilde tasarlanmalı ve yönetilmelidir.
 
KiÅŸisel Mahremiyet: Ä°nsanların ürettikleri verilerin hangilerinin yapay zeka sistemlerine verileceÄŸini belirleme ve kontrol etme hakkı olmalıdır.
 
Özgürlük ve Mahremiyet: Yapay zekanın kiÅŸisel verilere uygulanması, kiÅŸilerin gerçek ya da algılanan özgürlüklerini sebepsiz yere kısıtlamamalıdır.
 
Ortak Fayda: Yapay zeka teknolojileri mümkün olduÄŸunca çok kiÅŸiye fayda ve güç saÄŸlamalıdır.
 
Ortak Refah: Yapay zeka tarafından oluÅŸturulan ekonomik refah, geniÅŸ çevrelerce paylaşılmalı ve tüm insanlığa fayda saÄŸlamalıdır.
 
Ä°nsan Kontrolü: Ä°nsanlar kararları yapay zeka sistemlerine ne zaman ve ne ÅŸekilde bırakacaklarını kontrol edebilmelidir.
 
Tahribat Karşıtlığı: Ä°leri yapay zeka sistemleri tarafından kontrol edilen güç, toplumların saÄŸlıklı yaÅŸamının temel taşı olan toplumsal ve sivil süreçlere saygılı olmalı ve geliÅŸtirmeli, bu süreçleri tahrip etmemelidir.
 
Yapay Zeka Silahlanma Yarışı: Ölümcül otonom silahlanma yarışı oluÅŸması engellenmelidir.
 
Uzun vadeli konular
 
Kapasite Önlemi: Herhangi bir fikir birliÄŸi olmadan, gelecekteki yapay zekaların yeteneklerinin üst sınırı konusunda güçlü tahminlerde bulunmaktan kaçınılmalıdır.
 
Önem: Ä°leri yapay zeka, insanlığın Dünya üzerindeki yaÅŸam tarihinde önemli deÄŸiÅŸikliklere sebep olabilir. Buna göre yönetilmeli ve düzenlenmelidir.
 
Riskler: Yapay zeka sistemleri tarafından ortaya konulan yıkıcı ya da varoluÅŸsal riskler plan dahilinde, beklenen etkisinin ölçüsüyle orantılı bir ÅŸekilde azaltılmaya çalışılmalıdır.
 
Tekrarlanan Öz-geliÅŸim: Sayısını ve kalitesini hızla artıracak ÅŸekilde kendisini sürekli geliÅŸtirecek ve yeniden üretecek ÅŸekilde tasarlanmış yapay zeka sistemleri katı güvenlik ve kontrol önlemlerine tabi olmalıdır.
 
Ortak Çıkar: Süperzeka sistemleri sadece insanlığın geneli tarafından kabul görmüÅŸ etik idealler ve tüm insanlığın faydası için geliÅŸtirilmelidir. Bir ülke ya da bir organizasyon için deÄŸil.

Kaynak: Science Alert

Henüz yorum yapılmamış.

* İşaretli tüm alanları doldurunuz.