Yapay Genel Zeka
AI Varoluşsal Bir Tehdit mi?

Yapay Zekayı (AI) tartışırken yaygın bir tartışma, AI'nın varoluşsal bir tehdit olup olmadığıdır. Cevap, Makine Öğreniminin (ML) arkasındaki teknolojiyi anlamayı ve insanların insana benzeme eğiliminde olduğunu kabul etmeyi gerektirir. İki farklı yapay zeka türünü, şu anda mevcut olan ve endişe kaynağı olan Yapay Dar Zekayı (ANI) ve yapay zekanın kıyamet benzeri versiyonlarıyla en sık ilişkilendirilen tehdidi, yani Yapay Genel Zekayı (AGI) inceleyeceğiz.
Yapay Dar Zeka Tehditleri
ANI'nin ne olduğunu anlamak için, şu anda mevcut olan her bir AI uygulamasının bir ANI formu olduğunu anlamanız yeterlidir. Bunlar, dar bir uzmanlık alanına sahip yapay zeka alanlarıdır; örneğin, otonom araçlar, yalnızca bir aracı A noktasından B noktasına taşımak amacıyla tasarlanmış yapay zekayı kullanır. Başka bir YZ türü, oynamak için optimize edilmiş bir satranç programı olabilir. ve satranç programı pekiştirmeli öğrenmeyi kullanarak kendini sürekli geliştirse bile, satranç programı asla otonom bir aracı çalıştıramayacaktır.
Sorumlu olduğu operasyona odaklanan YZ sistemleri, dünyayı ele geçirmek için genelleştirilmiş öğrenmeyi kullanamaz. Bu iyi haber; kötü haber şu ki, yapay zeka sistemi bir insan operatöre bağlı olduğu için önyargılı verilere, insan hatasına ve hatta daha da kötüsü, haydut bir insan operatöre karşı hassastır.
AI Gözetim
İnsanlık için, mahremiyeti istila etmek için yapay zekayı kullanan ve bazı durumlarda insanların serbestçe hareket etmesini tamamen engellemek için yapay zeka gözetimini kullanan insanlardan daha büyük bir tehlike olmayabilir. Çin, Rusya ve diğer ülkeler COVID-19 sırasında yönetmeliklerden geçti kendi popülasyonlarının hareketini izlemelerini ve kontrol etmelerini sağlamak. Bunlar, özellikle otokratik liderlere sahip toplumlarda bir kez yürürlüğe girdikten sonra kaldırılması zor olan yasalardır.
Çin'de kameralar insanların evlerinin dışına, hatta bazı durumlarda evin içine yerleştirilmiştir. Hane halkından biri her ayrıldığında, bir yapay zekâ varış ve ayrılış saatlerini izler ve gerekirse yetkilileri uyarır. Sanki bu yeterli değilmiş gibi, yüz tanıma teknolojisinin yardımıyla Çin, bir kamera tarafından her tespit edildiğinde her kişinin hareketini takip edebilmektedir. Bu, yapay zekâyı kontrol eden kuruluşa mutlak bir güç sağlarken, vatandaşlarına hiçbir başvuru hakkı tanımaz.
Bu senaryonun tehlikeli olmasının nedeni, yozlaşmış hükümetlerin gazetecilerin, siyasi muhaliflerin veya hükümetin otoritesini sorgulamaya cesaret eden herkesin hareketlerini dikkatle izleyebilmesidir. Her hareket izlenirken gazetecilerin ve vatandaşların hükümetleri eleştirmek için nasıl temkinli davrandıklarını anlamak kolaydır.
Neyse ki yüz tanımanın kendi şehirlerine sızmasını engellemek için mücadele eden birçok şehir var. özellikle, Portland, Oregon yakın zamanda bir yasa çıkardı Bu, yüz tanımanın şehirde gereksiz yere kullanılmasını engeller. Yönetmelikte yapılan bu değişiklikler genel halk tarafından fark edilmemiş olsa da, gelecekte bu düzenlemeler bir tür özerklik ve özgürlük sunan şehirler ile baskıcı hisseden şehirler arasındaki fark olabilir.
Otonom Silahlar ve Dronlar
4500'den fazla AI araştırması, otonom silahların yasaklanması çağrısında bulundu ve Ölümcül Otonom Silahları Yasaklayın İnternet sitesi. Grubun, imza sahibi olarak birçok önemli kar amacı gütmeyen kuruluşu vardır. Human Rights Watch, Uluslararası Af Örgütü, Ve Hayatın Geleceği Enstitüsü kendi içinde Elon Musk, Nick Bostrom ve Stuart Russell'ın da dahil olduğu mükemmel bir bilimsel danışma kuruluna sahip.
Devam etmeden önce, Endişe için neden net bir neden olduğunu en iyi açıklayan The Future of Life Institute'tan şu alıntıyı paylaşacağım: "Her hedefin etik ve yasal olarak meşru olduğunun onaylanmasını sağlamak için insan gözetimi gerektiren yarı otonom silahların aksine, tamamen otonom silahlar, insan müdahalesi olmadan hedefleri seçer ve vurur, bu da ölümcül zararın tam otomasyonunu temsil eder. ”
Şu anda, akıllı bombalar bir insan tarafından seçilen bir hedefle konuşlandırılıyor ve bomba daha sonra bir rota çizmek ve hedefine inmek için yapay zekayı kullanıyor. Sorun şu ki, insanı denklemden tamamen çıkarmaya karar verdiğimizde ne oluyor?
Bir yapay zeka, insanların neyi hedeflemesi gerektiğini ve ayrıca kabul edilebilir olarak kabul edilen tali hasar türünü seçtiğinde, geri dönüşü olmayan bir noktayı aşmış olabiliriz. Bu nedenle, birçok AI araştırmacısı, otonom silahlarla uzaktan ilgili herhangi bir şeyi araştırmaya karşı çıkıyor.
Otonom silah araştırmalarını engellemeye çalışmanın birçok sorunu var. İlk sorun, Kanada, ABD ve Avrupa'nın çoğu gibi gelişmiş ülkeler yasağı kabul etse bile, bunun Çin, Kuzey Kore, İran ve Rusya gibi başıbozuk ülkelerin de aynı şeyi yapacağı anlamına gelmemesi. İkinci ve daha büyük sorun ise, belirli bir alanda kullanılmak üzere tasarlanan yapay zeka araştırmaları ve uygulamalarının tamamen alakasız bir alanda kullanılabilmesi.
Örneğin, bilgisayarlı görme sürekli olarak gelişmektedir ve otonom araçların, hassas ilaçların ve diğer önemli kullanım durumlarının geliştirilmesi için önemlidir. Ayrıca normal drone'lar veya otonom hale getirilebilecek şekilde değiştirilebilen drone'lar için de temel olarak önemlidir. Gelişmiş drone teknolojisinin potansiyel kullanım durumlarından biri, orman yangınlarını izleyip bunlarla mücadele edebilen drone'ların geliştirilmesidir. Bu, itfaiyecileri zarar görmekten tamamen kurtaracaktır. Bunu yapabilmek için, tehlikelere doğru uçabilen, düşük veya sıfır görüş koşullarında yön bulabilen ve kusursuz bir hassasiyetle su düşürebilen dronlar üretmeniz gerekir. Bu aynı teknolojinin, insanları seçici olarak hedef almak üzere tasarlanmış otonom bir drone'da kullanılması çok da zor değil.
Bu tehlikeli bir çıkmaz ve bu noktada, hiç kimse otonom silahların geliştirilmesini ilerletmenin veya engellemeye çalışmanın sonuçlarını tam olarak anlamıyor. Yine de gözlerimizi üzerinde tutmamız gereken bir şey, geliştiriyor düdük üfleyici koruması sahadakilerin suistimalleri bildirmesini sağlayabilir.
Sahte operatör bir yana, yapay zeka ön yargısı otonom bir silah olarak tasarlanmış yapay zeka teknolojisine sızarsa ne olur?
Yapay Zeka Önyargısı
Yapay zekanın en çok bildirilmeyen tehditlerinden biri yapay zeka yanlılığıdır. Çoğu kasıtsız olduğu için bunu anlamak kolaydır. Bir yapay zeka, yapay zekaya beslenen verilerden örüntü tanımayı kullanarak insanlar tarafından kendisine beslenen verileri incelediğinde yapay zeka önyargısı devreye girer, yapay zeka yanlış bir şekilde toplum üzerinde olumsuz etkileri olabilecek sonuçlara ulaşır. Örneğin, sağlık personelinin nasıl tanımlanacağına dair geçen yüzyıldan kalma literatürle beslenen bir yapay zeka, şu istenmeyen cinsiyetçi sonuca varabilir: kadınlar her zaman hemşire ve erkekler her zaman doktordur.
Daha tehlikeli bir senaryo, Hüküm giymiş suçluları cezalandırmak için kullanılan AI önyargılıdır Azınlıklara daha uzun hapis cezaları verilmesine doğru. Yapay zekanın suç riski değerlendirme algoritmaları, sisteme girilen verilerdeki kalıpları inceliyor. Bu veriler, tarihsel olarak belirli azınlıkların, polisin ırksal profillemesinden etkilenebilecek yetersiz veri kümelerinden kaynaklansa bile, tekrar suç işleme olasılığının daha yüksek olduğunu gösteriyor. Taraflı yapay zeka, olumsuz insan politikalarını pekiştiriyor. Bu nedenle yapay zeka bir kılavuz olmalı, yargıç ve jüri değil.
Otonom silahlara geri dönersek, belirli etnik gruplara karşı önyargılı bir yapay zekamız varsa, önyargılı verilere dayanarak belirli bireyleri hedef almayı seçebilir ve herhangi bir ikincil hasarın belirli demografiyi diğerlerinden daha az etkilemesini sağlayacak kadar ileri gidebilir. . Örneğin, bir teröristi hedef alırken, saldırmadan önce, teröristin etrafını Hıristiyanlar yerine Müslüman inancına sahip kişiler sarana kadar bekleyebilir.
Neyse ki, çeşitli ekiplerle tasarlanan yapay zekanın önyargıya daha az eğilimli olduğu kanıtlanmıştır. Bu, işletmelerin mümkün olan her durumda çeşitli ve çok yönlü bir ekip tutma girişiminde bulunmaları için yeterli bir nedendir.
Yapay Genel Zeka Tehditleri
Yapay Zeka katlanarak ilerlerken, AGI'ye hala ulaşamadığımızı belirtmek gerekir. AGI'ye ne zaman ulaşacağımız tartışmaya açık ve zaman çizelgesi konusunda herkesin farklı bir yanıtı var. Mucit, fütürist ve 'The Singularity is Near' kitabının yazarı Ray Kurzweil'in görüşlerine şahsen katılıyorum. 2029'a kadar AGI'ye ulaştı.
AGI, dünyadaki en dönüştürücü teknoloji olacak. AI, insan düzeyinde zekaya ulaştıktan sonraki haftalar içinde, daha sonra ulaşacak süper zeka Bu, bir insanınkinden çok daha üstün olan zeka olarak tanımlanır.
Bu düzeyde bir zekâya sahip bir Yapay Zeka (YZ), tüm insan bilgisini hızla özümseyebilir ve sağlık sorunlarına neden olan biyobelirteçleri belirlemek için desen tanıma özelliğini kullanabilir ve ardından bu rahatsızlıkları veri bilimini kullanarak tedavi edebilir. Kanser hücrelerini veya diğer saldırı vektörlerini hedeflemek için kan dolaşımına giren nanobotlar yaratabilir. Bir YZ'nin başarabileceği başarıların listesi sonsuzdur. Daha önce bunlardan bazılarını incelemiştik. AGI'nin faydaları.
Sorun şu ki, insanlar artık yapay zekayı kontrol edemiyor olabilir. Elon Musk bunu şöyle açıklıyor: ”Yapay zeka ile şeytanı çağırıyoruz'Bu şeytanı kontrol edebilecek miyiz?' Soru şu:
AGI'ye ulaşmak, bir yapay zeka açık uçlu dünyamızda gerçekten etkileşim kurmak için bir simülasyon ortamından ayrılana kadar imkansız olabilir. Öz-farkındalık tasarlanamaz, bunun yerine bir ortaya çıkan bilinç Bir AI, birden fazla giriş akışına sahip bir robotik gövdeye sahip olduğunda muhtemelen gelişecektir. Bu girdiler, dokunsal stimülasyonu, gelişmiş doğal dil anlayışıyla ses tanımayı ve artırılmış bilgisayar görüşünü içerebilir.
Gelişmiş AI, özgecil amaçlarla programlanmış olabilir ve gezegeni kurtarmak isteyebilir. Ne yazık ki, AI kullanabilir veri bilimi, hatta bir karar ağacı aşırı insan nüfusunu kontrol altına almak için insanları kısırlaştırmanın veya insan nüfusunun bir kısmını ortadan kaldırmanın gerekli olduğunu değerlendirmek gibi istenmeyen hatalı bir mantığa varmak.
Bir insanınkinden çok daha üstün zekaya sahip bir yapay zeka oluştururken dikkatli düşünme ve müzakerenin keşfedilmesi gerekir. Keşfedilen birçok kabus senaryosu var.
Ataç Maximizer argümanında Profesör Nick Bostrom yanlış yapılandırılmış bir AGI'ye ataç üretme talimatı verilirse, bu ataçları üretmek için dünyanın tüm kaynaklarını tüketeceğini savundu. Bu biraz abartılı görünse de, daha pragmatik bir bakış açısı, bir AGI'nin haydut bir devlet veya kötü etik değerlere sahip bir şirket tarafından kontrol edilebileceğidir. Bu varlık AGI'yi karı maksimize edecek şekilde eğitebilir ve bu durumda zayıf programlama ve sıfır pişmanlıkla rakipleri iflas ettirmeyi, tedarik zincirlerini yok etmeyi, borsayı hacklemeyi, banka hesaplarını tasfiye etmeyi veya siyasi muhaliflere saldırmayı seçebilir.
Bu, insanların antropomorfize olma eğiliminde olduğunu hatırlamamız gereken zamandır. AI'ya insan tipi duygular, istekler veya arzular veremeyiz. Zevk için öldüren şeytani insanlar olsa da, bir yapay zekanın bu tür davranışlara duyarlı olacağına inanmak için hiçbir neden yok. İnsanların bir yapay zekanın dünyayı nasıl göreceğini düşünmesi bile düşünülemez.
Bunun yerine yapmamız gereken, AI'ya her zaman bir insana karşı saygılı olmayı öğretmektir. Yapay zeka, ayarlardaki değişiklikleri her zaman onaylayan bir insana sahip olmalı ve her zaman arızaya karşı güvenli bir mekanizma olmalıdır. Sonra tekrar, AI'nın kendisini bulutta kopyalayacağı ve kendisinin farkında olduğunu anladığımızda çok geç olabileceği tartışıldı.
Bu nedenle, mümkün olduğunca çok yapay zekayı açık kaynak yapmak ve bu konularla ilgili rasyonel tartışmalar yapmak çok önemlidir.
ÖZET
Yapay zeka için pek çok zorluk var, neyse ki, gelecekte AGI'nin izlemesini istediğimiz yolu toplu olarak belirlemek için hâlâ uzun yıllarımız var. Kısa vadede, mümkün olduğunca çok sayıda erkek ve farklı bakış açısına sahip çok sayıda etnik grubu içeren, çeşitlilik içeren bir yapay zeka işgücü oluşturmaya odaklanmalıyız.
Ayrıca yapay zeka üzerinde çalışan araştırmacılar için muhbir korumaları oluşturmalı ve eyalet veya şirket çapında gözetimin yaygın şekilde kötüye kullanılmasını önleyen yasa ve yönetmelikleri çıkarmalıyız. İnsanlar, AI'nın yardımıyla insanlık durumunu iyileştirmek için ömür boyu bir kez bir fırsata sahipler, sadece pozitifleri en iyi şekilde mümkün kılan ve varoluşsal tehditleri içeren negatifleri hafifletirken dikkatli bir şekilde toplumsal bir çerçeve oluşturduğumuzdan emin olmamız gerekiyor.










