Etik
İleri AI Teknolojileri Etik Sorunlar Sunar – Düşünce Liderleri

Alfred Crews, Jr tarafından, BAE Systems Inc.’in İstihbarat ve Güvenlik bölümünün başkan yardımcısı ve baş hukuk danışmanı
Bu yılın başlarında, küresel salgın öncesi, Charleston’daki The Citadel İstihbarat Etiği Konferansına katıldım, burada istihbarat toplama bağlamında ulusal güvenliği koruma ile ilgili olarak istihbarat etiği konusunu tartıştık. Savunma endüstrisinde, bilgi, hesaplama ve ileri teknolojilerin, özellikle yapay zeka (AI) ve makine öğrenimi (ML) alanlarında yaygınlaştığını görüyoruz. Ancak, AI’ı istihbarat toplama veya gerçek zamanlı savaş bağlamında kullanmak önemli sorunlar yaratabilir.
Quantum hesaplama ile birleştirilen AI riskleri sunar
Sorgulamak, analiz etmek ve ileriye yönelik bir yol belirlemek zorunda olduğumuz şey, savaş zamanı karar alma sürecinde AI’ı quantum hesaplama yetenekleri ile birleştirmektir. Örneğin, Terminatör’ü hatırlayın? Teknolojiğimiz büyük adımlar atladığında, Skynet’in sunduğu gerçeklik önümüzde duruyor. “Skynet bizi yakalamaya mı geliyor?” diyerek kendimize sorabiliriz. Hafızaları tazeleyelim; AI makineleri, insan tarafından yönlendirilmeden kendi başlarına düşünme ve karar alma yeteneğine sahip olduğu için insanlığı yok etmeye çalıştılar. AI’ın büyük potansiyele sahip olduğunu düşünüyorum, ancak risk faktöründen dolayı kontrol parametrelerine sahip olması gerektiğini düşünüyorum.
AI’ın etik belirsizlikleri ve felsefi ikilemi
Sanırım bu nedenle ABD Savunma Bakanlığı (DoD), kendi AI Etik İlkelerini yayınladı, çünkü AI’ın kullanımı yeni etik belirsizlikler ve riskler yaratıyor. Quantum hesaplama yetenekleri ile AI’ı birleştirdiğinizde, karar alma yetisi değişir ve kontrolü kaybetme riski artar – bugün gerçekleştirebileceğimizden daha fazla. Quantum hesaplama, insan beyninin işletim sistemini utandıran süper bilgisayarlar, insan beyninin asla ulaşamayacağı hızda ve doğrulukta hesaplamalar yapabilir.
Ayrıca, AI’ı hesaplama ile birleştirmek felsefi bir ikilem yaratır. Makinelerin kendi iradesine sahip olmasına izin vereceğimiz noktayı nerede belirleyeceğiz; ve makinelerin kendi başlarına düşünmesine izin verirsek, bu makinelerin kendi başlarına bilinçli olduklarını anlamına mı gelir? Bilinçli olmak hayat anlamına mı gelir? Toplum olarak, bu durumu tanımlamak için henüz bir karar vermedik. Dolayısıyla, makinelerin insan müdahalesi olmadan kendi başlarına hareket etmesi, sonuçlara yol açabilir. Bir makine, insan müdahalesini durdurma emrini geçersiz kılabilir mi? Makine kendi başına çalışıyorsa, onu durdurabileceğimizden emin olabilir miyiz?
AI’ı savunma amaçlı olarak kullanmak kolay görünüyor. Ancak, saldırıya geçmek daha kolay olmaz mı? Saldırıda, makineler savaş alanında ateş açma kararları verecektir. Bir makinenin düşman ateş açması Cenevre Sözleşmesi ve silahlı çatışma lawsını ihlal eder mi? Bu alana hızlı bir şekilde girerken, dünya AI ve quantum hesaplamanın savaşta kullanılmasıyla ilgili mevcut yasalara uymak zorunda olduğunu kabul etmelidir.
DoD, otonom sistemlerle AI’ı kullanırken, karar alma sürecinde her zaman bir insan olacağını belirtiyor; bir insan silahı ateşlemek için son kararı verecektir. Bu bizim kuralımız, ancak bir düşman farklı bir yol izlemeye ve AI yeteneklerine sahip bir makineye tüm kararları verme izni vermeye karar verirse ne olur? O zaman makine, zaten daha hızlı, daha akıllı ve daha doğru olan, avantajlı olacaktır.
AI ve yüz tanıma ile donatılmış bir insansız hava aracını düşünün: Insansız hava aracı, önceden belirlenmiş bir hedefi teröristle eşleştirdiği için kendi başına ateş eder. Ateş etme emrini veren kimdir? Yanlış bir karar verildiğinde, sorumluluk kimin olacaktır?
AI/ML’de önyargı
Araştırmalar, bir makinenin insanlardan daha az hata yapma olasılığı olduğunu gösteriyor. Ancak araştırmalar, makine öğreniminin insan “öğretmeni” tarafından makineye öğretildiği için önyargılar içerdiğini de kanıtlıyor. DoD’un beş AI Etik İlkesi, mevcut önyargılara atıfta bulunarak “Bakanlık, AI yeteneklerinde kasıtsız önyargıları en aza indirmek için bilinçli adımlar atacaktır” diyor. Zaten kanıtlanmış çalışmalar aracılığıyla, yüz tanıma uygulamalarında renkli insanlara karşı önyargılı yanlış pozitif sonuçlar olduğunu biliyoruz. Bir kişi makineye karar verme şeklini öğrettiğinde, bu kişi kendi içinde var olan önyargılardan habersiz olabilir.
Öyleyse, önyargıları nasıl ortadan kaldırabiliriz? AI çıktısı, girdisi kadar iyidir. Bu nedenle, kontroller olmalıdır. Giren veriyi kontrol etmelisiniz, çünkü bu, AI sonuçlarının geçerliliğini azaltabilir. Geliştiriciler, önyargıları ortadan kaldırmak için sürekli olarak kodu yeniden yazmak zorunda kalacaktır.
Teknolojinin en iyi kullanımını tanımlamak için dünya
Teknoloji itself iyi veya kötü değildir. Bir ülkenin onu nasıl kullandığı, en iyi niyetleri yanlış gitmesine neden olabilir. Teknoloji, insan yaşamını etkileyen yollarda ilerledikçe, dünya birlikte uygun eylemi tanımlamak zorunda kalacaktır. AI uygulamalarında insan faktörünü çıkardığımızda, tetiği çekmeden önce verdiğimiz o duraklama – bizi yönlendiren o ahlaki pusula; o duraklama, “Bu doğru mu?” diye sorduğumuz anı da çıkarıyoruz. Bir makine, kendi başına hareket etmesi için eğitildiğinde, bu duraklama olmayacaktır. Dolayısıyla, soru, gelecekte dünya buna izin verecek mi? Makinelerin savaş kararları almasına izin vermeye ne kadar ileri gideceğiz?












