AGI
Araştırmacılar, İnsanların Süper Zeki Yapay Zekayı Kontrol Edemeyeceğini Söylüyor

Yapay zeka (AI) ile ilgili herhangi bir şey bilen herkes, bir şekilde insan kontrolünden kurtulacağı konusunda bazı rivayetler duymuş olmalıdır. Bu, sadece Sci-Fi filmlerinden bir tema değil, aynı zamanda birçok endüstri uzmanını endişelendiren çok güçlü bir olasılıktır. Bu uzmanların çoğu, bilim adamları dahil, bu olasılığa hazırlanmaya başlamamız ve mümkün olduğunca kaçınmamız gerektiğini savunuyorlar.
Şimdi, uluslararası bir araştırma ekibi bu fikri teorik hesaplamalarla destekledi. Max Planck İnsan Gelişimi Enstitüsü’nün İnsanlar ve Makineler Merkezi’nden bilim adamlarını içeren ekip, bu hesaplamaları kullanarak süper zeki bir AI’ı kontrol etmenin mümkün olmayacağını göstermek için kullandı.
Araştırma yakın zamanda Yapay Zeka Araştırması Dergisi‘nde yayımlandı.
Süper Zeki Yapay Zeka Sistemi
Süper zeki bir AI sistemi konusunda endişe, böyle bir sistemin insanlardan çok daha üstün olacağı gerçeğiyle ilgilidir. Sadece bağımsız olarak öğrenmekle kalmayacak, aynı zamanda mevcut tüm verilere erişebilecek ve bunları çok hızlı bir şekilde işleyebilecek.
Bu tür bir olay, süper zeki AI’ın mevcut tüm makineleri internette ele geçirmesiyle sonuçlanabilir ve enquanto insanlığa karşı büyük sorunları çözebilecek ve hastalıkları iyileştirebilecek, kontrolün elden gittiği risk de çok yüksektir.
Manuel Cebrian çalışmanın ortak yazarı ve Max Planck İnsan Gelişimi Enstitüsü’nün İnsanlar ve Makineler Merkezi’ndeki Dijital Mobilizasyon Grubu Lideri.
“Dünya üzerinde hakimiyet kuran süper zeki bir makine, bilim kurgu gibi görünüyor. Ancak zaten programcıların tam olarak nasıl öğrendiğini anlamadığı belirli önemli görevleri bağımsız olarak gerçekleştiren makineler var. Bu nedenle, bu durumun bir noktada kontrol edilemez ve insanlık için tehlikeli olup olmayacağı sorusu ortaya çıkıyor” diyor Cebrian.
Sistemi Kontrol Etme
Böyle bir sistemi kontrol etmek konusunda iki ana düşünce ekolu vardır. İlk olarak, insanlar süper zeki bir AI’ın yeteneklerini, örneğin tüm internete erişimini kısıtlayarak sınırlayabilir. Sistem ayrıca dış dünya ile temas etmeden çalışabilir. Ancak bununla ilgili sorun, bunun AI’ın potansiyelini dramatik bir şekilde sınırlayacağıdır.
Sistem, yalnızca insanlığa fayda sağlayacak sonuçları takip etmesine izin ederek kontrol edilebilir ve bu, etik ilkelerini programa girerek yapılabilir.
Çalışma, ekibin insanlara herhangi bir durumda zarar vermesini önleyen süper zeki AI için teorik bir kapsülleme algoritması geliştirmesini içeriyordu. Bu, önce AI’ın davranışının bir simülasyonunu oluşturarak ve potentially zararlı olabilecek herhangi bir davranışı tespit ederek gerçekleştirilebilir. Bu vaat edilen teoriye rağmen, mevcut analiz böyle bir algoritmanın geliştirilemeyeceğini gösteriyor.
Iyad Rahwan, İnsanlar ve Makineler Merkezi Müdürü.
“Sorunu teorik bilgisayar bilimi temel kurallarına indirgerseniz, AI’ı dünyayı yok etmemesi için komuta eden bir algoritmanın, istemeden kendi operasyonlarını durdurabileceği ortaya çıkıyor. Bu olursa, kapsülleme algoritmasının hala tehdidi analiz edip etmediğini veya zararlı AI’ı içererek durdurup durmadığını bilemezsiniz. Aslında, bu kapsülleme algoritmasını kullanılmaz hale getirir” diyor Rahwan.
Diğer bir sorun, uzmanların bir süper zeki makinenin bu duruma ulaştığını anlamayabilmesi, büyük ölçüde daha zeki olacağı için.












