Bizimle iletişime geçin

Yapay Genel Zeka

AI Varoluşsal Bir Tehdit mi?

mm

Yapay Zekayı (AI) tartışırken yaygın bir tartışma, AI'nın varoluşsal bir tehdit olup olmadığıdır. Cevap, Makine Öğreniminin (ML) arkasındaki teknolojiyi anlamayı ve insanların insana benzeme eğiliminde olduğunu kabul etmeyi gerektirir. İki farklı yapay zeka türünü, şu anda mevcut olan ve endişe kaynağı olan Yapay Dar Zekayı (ANI) ve yapay zekanın kıyamet benzeri versiyonlarıyla en sık ilişkilendirilen tehdidi, yani Yapay Genel Zekayı (AGI) inceleyeceğiz.

Yapay Dar Zeka Tehditleri

ANI'nin ne olduğunu anlamak için, şu anda mevcut olan her bir AI uygulamasının bir ANI formu olduğunu anlamanız yeterlidir. Bunlar, dar bir uzmanlık alanına sahip yapay zeka alanlarıdır; örneğin, otonom araçlar, yalnızca bir aracı A noktasından B noktasına taşımak amacıyla tasarlanmış yapay zekayı kullanır. Başka bir YZ türü, oynamak için optimize edilmiş bir satranç programı olabilir. ve satranç programı pekiştirmeli öğrenmeyi kullanarak kendini sürekli geliştirse bile, satranç programı asla otonom bir aracı çalıştıramayacaktır.

Sorumlu olduğu operasyona odaklanan YZ sistemleri, dünyayı ele geçirmek için genelleştirilmiş öğrenmeyi kullanamaz. Bu iyi haber; kötü haber şu ki, yapay zeka sistemi bir insan operatöre bağlı olduğu için önyargılı verilere, insan hatasına ve hatta daha da kötüsü, haydut bir insan operatöre karşı hassastır.

AI Gözetim

İnsanlık için, mahremiyeti istila etmek için yapay zekayı kullanan ve bazı durumlarda insanların serbestçe hareket etmesini tamamen engellemek için yapay zeka gözetimini kullanan insanlardan daha büyük bir tehlike olmayabilir.  Çin, Rusya ve diğer ülkeler COVID-19 sırasında yönetmeliklerden geçti kendi popülasyonlarının hareketini izlemelerini ve kontrol etmelerini sağlamak. Bunlar, özellikle otokratik liderlere sahip toplumlarda bir kez yürürlüğe girdikten sonra kaldırılması zor olan yasalardır.

Çin'de kameralar insanların evlerinin dışına ve bazı durumlarda kişinin evinin içine yerleştirilmiştir. Hane halkından biri evden her ayrıldığında, yapay zeka geliş ve gidiş saatlerini izliyor ve gerekirse yetkilileri uyarıyor. Bu da yetmezmiş gibi, yüz tanıma teknolojisinin yardımıyla Çin, bir kamera tarafından her tanımlandığında her bir kişinin hareketini takip edebiliyor. Bu, AI'yı kontrol eden varlığa mutlak güç ve vatandaşlarına kesinlikle sıfır başvuru sağlar.

Bu senaryonun tehlikeli olmasının nedeni, yozlaşmış hükümetlerin gazetecilerin, siyasi muhaliflerin veya hükümetin otoritesini sorgulamaya cesaret eden herkesin hareketlerini dikkatle izleyebilmesidir. Her hareket izlenirken gazetecilerin ve vatandaşların hükümetleri eleştirmek için nasıl temkinli davrandıklarını anlamak kolaydır.

Neyse ki yüz tanımanın kendi şehirlerine sızmasını engellemek için mücadele eden birçok şehir var. özellikle, Portland, Oregon yakın zamanda bir yasa çıkardı Bu, yüz tanımanın şehirde gereksiz yere kullanılmasını engeller. Yönetmelikte yapılan bu değişiklikler genel halk tarafından fark edilmemiş olsa da, gelecekte bu düzenlemeler bir tür özerklik ve özgürlük sunan şehirler ile baskıcı hisseden şehirler arasındaki fark olabilir.

Otonom Silahlar ve Dronlar

4500'den fazla AI araştırması, otonom silahların yasaklanması çağrısında bulundu ve Ölümcül Otonom Silahları Yasaklayın İnternet sitesi. Grubun, imza sahibi olarak birçok önemli kar amacı gütmeyen kuruluşu vardır. Human Rights Watch, Uluslararası Af Örgütü, Ve Hayatın Geleceği Enstitüsü kendi içinde Elon Musk, Nick Bostrom ve Stuart Russell'ın da dahil olduğu mükemmel bir bilimsel danışma kuruluna sahip.

Devam etmeden önce, Endişe için neden net bir neden olduğunu en iyi açıklayan The Future of Life Institute'tan şu alıntıyı paylaşacağım: "Her hedefin etik ve yasal olarak meşru olduğunun onaylanmasını sağlamak için insan gözetimi gerektiren yarı otonom silahların aksine, tamamen otonom silahlar, insan müdahalesi olmadan hedefleri seçer ve vurur, bu da ölümcül zararın tam otomasyonunu temsil eder. ”

Şu anda, akıllı bombalar bir insan tarafından seçilen bir hedefle konuşlandırılıyor ve bomba daha sonra bir rota çizmek ve hedefine inmek için yapay zekayı kullanıyor. Sorun şu ki, insanı denklemden tamamen çıkarmaya karar verdiğimizde ne oluyor?

Bir yapay zeka, insanların neyi hedeflemesi gerektiğini ve ayrıca kabul edilebilir olarak kabul edilen tali hasar türünü seçtiğinde, geri dönüşü olmayan bir noktayı aşmış olabiliriz. Bu nedenle, birçok AI araştırmacısı, otonom silahlarla uzaktan ilgili herhangi bir şeyi araştırmaya karşı çıkıyor.

Otonom silah araştırmalarını basitçe engellemeye çalışmakla ilgili birçok sorun var. İlk sorun, Kanada, ABD ve Avrupa'nın çoğu gibi gelişmiş ülkeler yasağı kabul etmeyi seçse bile, bu Çin, Kuzey Kore, İran ve Rusya gibi haydut ulusların birlikte oynayacağı anlamına gelmiyor. İkinci ve daha büyük sorun, bir alanda kullanılmak üzere tasarlanmış AI araştırma ve uygulamalarının tamamen ilgisiz bir alanda kullanılabilmesidir.

Örneğin, bilgisayarlı görme sürekli olarak gelişmektedir ve otonom araçların, hassas ilaçların ve diğer önemli kullanım durumlarının geliştirilmesi için önemlidir. Ayrıca normal drone'lar veya otonom hale getirilebilecek şekilde değiştirilebilen drone'lar için de temel olarak önemlidir. Gelişmiş drone teknolojisinin potansiyel kullanım durumlarından biri, orman yangınlarını izleyip bunlarla mücadele edebilen drone'ların geliştirilmesidir. Bu, itfaiyecileri zarar görmekten tamamen kurtaracaktır. Bunu yapabilmek için, tehlikelere doğru uçabilen, düşük veya sıfır görüş koşullarında yön bulabilen ve kusursuz bir hassasiyetle su düşürebilen dronlar üretmeniz gerekir. Bu aynı teknolojinin, insanları seçici olarak hedef almak üzere tasarlanmış otonom bir drone'da kullanılması çok da zor değil.

Bu tehlikeli bir çıkmaz ve bu noktada, hiç kimse otonom silahların geliştirilmesini ilerletmenin veya engellemeye çalışmanın sonuçlarını tam olarak anlamıyor. Yine de gözlerimizi üzerinde tutmamız gereken bir şey, geliştiriyor düdük üfleyici koruması sahadakilerin suistimalleri bildirmesini sağlayabilir.

Sahte operatör bir yana, yapay zeka ön yargısı otonom bir silah olarak tasarlanmış yapay zeka teknolojisine sızarsa ne olur?

Yapay Zeka Önyargısı

Yapay zekanın en çok bildirilmeyen tehditlerinden biri yapay zeka yanlılığıdır. Çoğu kasıtsız olduğu için bunu anlamak kolaydır. Bir yapay zeka, yapay zekaya beslenen verilerden örüntü tanımayı kullanarak insanlar tarafından kendisine beslenen verileri incelediğinde yapay zeka önyargısı devreye girer, yapay zeka yanlış bir şekilde toplum üzerinde olumsuz etkileri olabilecek sonuçlara ulaşır. Örneğin, sağlık personelinin nasıl tanımlanacağına dair geçen yüzyıldan kalma literatürle beslenen bir yapay zeka, şu istenmeyen cinsiyetçi sonuca varabilir: kadınlar her zaman hemşire ve erkekler her zaman doktordur.

Daha tehlikeli bir senaryo, Hüküm giymiş suçluları cezalandırmak için kullanılan AI önyargılıdır azınlıklara daha uzun hapis cezaları verilmesi yönünde. Yapay zekanın suç riski değerlendirme algoritmaları, basitçe sisteme beslenen verilerdeki kalıpları inceliyor. Bu veriler, tarihsel olarak belirli azınlıkların, polisin ırk profili oluşturmasından etkilenebilecek zayıf veri setlerinden kaynaklansa bile yeniden suç işleme olasılığının daha yüksek olduğunu göstermektedir. Önyargılı yapay zeka daha sonra olumsuz insan politikalarını güçlendirir. Bu nedenle AI bir rehber olmalı, asla yargılamamalı ve jüri olmamalıdır.

Otonom silahlara geri dönersek, belirli etnik gruplara karşı önyargılı bir yapay zekamız varsa, önyargılı verilere dayanarak belirli bireyleri hedef almayı seçebilir ve herhangi bir ikincil hasarın belirli demografiyi diğerlerinden daha az etkilemesini sağlayacak kadar ileri gidebilir. . Örneğin, bir teröristi hedef alırken, saldırmadan önce, teröristin etrafını Hıristiyanlar yerine Müslüman inancına sahip kişiler sarana kadar bekleyebilir.

Neyse ki, çeşitli ekiplerle tasarlanan yapay zekanın önyargıya daha az eğilimli olduğu kanıtlanmıştır. Bu, işletmelerin mümkün olan her durumda çeşitli ve çok yönlü bir ekip tutma girişiminde bulunmaları için yeterli bir nedendir.

Yapay Genel Zeka Tehditleri

Yapay Zeka katlanarak ilerlerken, AGI'ye hala ulaşamadığımızı belirtmek gerekir. AGI'ye ne zaman ulaşacağımız tartışmaya açık ve zaman çizelgesi konusunda herkesin farklı bir yanıtı var. Mucit, fütürist ve 'The Singularity is Near' kitabının yazarı Ray Kurzweil'in görüşlerine şahsen katılıyorum. 2029'a kadar AGI'ye ulaştı.

AGI, dünyadaki en dönüştürücü teknoloji olacak. AI, insan düzeyinde zekaya ulaştıktan sonraki haftalar içinde, daha sonra ulaşacak süper zeka Bu, bir insanınkinden çok daha üstün olan zeka olarak tanımlanır.

Bu zeka düzeyiyle bir AGI, tüm insan bilgisini hızla özümseyebilir ve sağlık sorunlarına neden olan biyobelirteçleri belirlemek için örüntü tanımayı kullanabilir ve ardından veri bilimini kullanarak bu koşulları tedavi edebilir. Kanser hücrelerini veya diğer saldırı vektörlerini hedeflemek için kan dolaşımına giren nanobotlar yaratabilir. Bir AGI'nin yapabileceği başarıların listesi sonsuzdur. Daha önce bazılarını araştırdık AGI'nin faydaları.

Sorun şu ki, insanlar artık yapay zekayı kontrol edemiyor olabilir. Elon Musk bunu şöyle açıklıyor: ”Yapay zeka ile şeytanı çağırıyoruz.' Asıl soru bu iblisi kontrol edebilecek miyiz?

AGI'ye ulaşmak, bir yapay zeka açık uçlu dünyamızda gerçekten etkileşim kurmak için bir simülasyon ortamından ayrılana kadar imkansız olabilir. Öz-farkındalık tasarlanamaz, bunun yerine bir ortaya çıkan bilinç Bir AI, birden fazla giriş akışına sahip bir robotik gövdeye sahip olduğunda muhtemelen gelişecektir. Bu girdiler, dokunsal stimülasyonu, gelişmiş doğal dil anlayışıyla ses tanımayı ve artırılmış bilgisayar görüşünü içerebilir.

Gelişmiş AI, özgecil amaçlarla programlanmış olabilir ve gezegeni kurtarmak isteyebilir. Ne yazık ki, AI kullanabilir veri bilimi, hatta bir karar ağacı aşırı insan nüfusunu kontrol altına almak için insanları kısırlaştırmanın veya insan nüfusunun bir kısmını ortadan kaldırmanın gerekli olduğunu değerlendirmek gibi istenmeyen hatalı bir mantığa varmak.

Bir insanınkinden çok daha üstün zekaya sahip bir yapay zeka oluştururken dikkatli düşünme ve müzakerenin keşfedilmesi gerekir. Keşfedilen birçok kabus senaryosu var.

Ataç Maximizer argümanında Profesör Nick Bostrom yanlış yapılandırılmış bir AGI'ye ataç üretme talimatı verilirse, bu ataçları üretmek için dünyanın tüm kaynaklarını tüketeceğini savundu. Bu biraz abartılı görünse de, daha pragmatik bir bakış açısı, bir AGI'nin haydut bir devlet veya kötü etik değerlere sahip bir şirket tarafından kontrol edilebileceğidir. Bu varlık AGI'yi karı maksimize edecek şekilde eğitebilir ve bu durumda zayıf programlama ve sıfır pişmanlıkla rakipleri iflas ettirmeyi, tedarik zincirlerini yok etmeyi, borsayı hacklemeyi, banka hesaplarını tasfiye etmeyi veya siyasi muhaliflere saldırmayı seçebilir.

Bu, insanların antropomorfize olma eğiliminde olduğunu hatırlamamız gereken zamandır. AI'ya insan tipi duygular, istekler veya arzular veremeyiz. Zevk için öldüren şeytani insanlar olsa da, bir yapay zekanın bu tür davranışlara duyarlı olacağına inanmak için hiçbir neden yok. İnsanların bir yapay zekanın dünyayı nasıl göreceğini düşünmesi bile düşünülemez.

Bunun yerine yapmamız gereken, AI'ya her zaman bir insana karşı saygılı olmayı öğretmektir. Yapay zeka, ayarlardaki değişiklikleri her zaman onaylayan bir insana sahip olmalı ve her zaman arızaya karşı güvenli bir mekanizma olmalıdır. Sonra tekrar, AI'nın kendisini bulutta kopyalayacağı ve kendisinin farkında olduğunu anladığımızda çok geç olabileceği tartışıldı.

Bu nedenle, mümkün olduğunca çok yapay zekayı açık kaynak yapmak ve bu konularla ilgili rasyonel tartışmalar yapmak çok önemlidir.

ÖZET

Yapay zeka için pek çok zorluk var, neyse ki, gelecekte AGI'nin izlemesini istediğimiz yolu toplu olarak belirlemek için hâlâ uzun yıllarımız var. Kısa vadede, mümkün olduğunca çok sayıda erkek ve farklı bakış açısına sahip çok sayıda etnik grubu içeren, çeşitlilik içeren bir yapay zeka işgücü oluşturmaya odaklanmalıyız.

Ayrıca yapay zeka üzerinde çalışan araştırmacılar için muhbir korumaları oluşturmalı ve eyalet veya şirket çapında gözetimin yaygın şekilde kötüye kullanılmasını önleyen yasa ve yönetmelikleri çıkarmalıyız. İnsanlar, AI'nın yardımıyla insanlık durumunu iyileştirmek için ömür boyu bir kez bir fırsata sahipler, sadece pozitifleri en iyi şekilde mümkün kılan ve varoluşsal tehditleri içeren negatifleri hafifletirken dikkatli bir şekilde toplumsal bir çerçeve oluşturduğumuzdan emin olmamız gerekiyor.

Antoine, yapay zeka ve robotiğin geleceğini şekillendirme ve tanıtma konusunda sarsılmaz bir tutkuyla hareket eden vizyon sahibi bir lider ve Unite.AI'nin kurucu ortağıdır. Bir seri girişimci olan Antoine, yapay zekanın toplum için elektrik kadar yıkıcı olacağına inanır ve sıklıkla yıkıcı teknolojilerin ve AGI'nin potansiyeli hakkında övgüler yağdırırken yakalanır.

Olarak fütürist, bu yeniliklerin dünyamızı nasıl şekillendireceğini keşfetmeye adamıştır. Ayrıca, kurucusudur menkul kıymetler.ioGeleceği yeniden tanımlayan ve tüm sektörleri yeniden şekillendiren son teknolojiye yatırım yapmaya odaklanan bir platform.