Düşünce Liderleri
Yapay Zeka ve Güven Yayının Eğrisi

Geçen yılın başlarında, ekibimiz önümüzdeki yılla ilgili tahminler yaparken, ortak görüş yapay zekanın (AI) sarmalının kaldırılacağı yönündeydi. Nihayet ne yapabileceğini görecek ve umarım iş ve toplum üzerindeki etkileri ve nasıl ilerleyeceğimiz konusunda netlik kazanacaktık. Bu, yeni bir tahmin değildi, ancak çekirdeği doğruydu, ancak yapay zeka ve nasıl (veya eğer) kontrol edileceği konusundaki etkileriyle hala mücadele ediyoruz.
Apple, Microsoft ve Google’nin cihazlara AI’yi entegre ettiğini ve gücünü daha geniş ve büyük bir kitleye getirdiğini görecektik. Sonra tekrar, bir AI destekli arama aracındaki bir sohbet botu kullanıcıları tehdit etti ve çalışanları izlediğini iddia etti, bir diğeri ise ev yapımı pizzada peynirin kaymasını önlemek için Elmer’s yapıştırıcısını kullanmayı önerdi. Yine de, AI iş benimseme kullanım örnekleri dramatik olarak büyüdü ve pazar da öyle. Crunchbase’den alınan verilere göre, geçen yıl neredeyse tüm küresel risk sermayesi fonlarının üçte biri yalnızca AI ile ilgili alanlardaki şirketlere gitti.
Ama OpenAI gerçekten dikkat çekici gelişmiş akıl yürütme sunarken, ünlü AI araştırmacısı Yoshua Bengio, “ön saf AI modelleri” için güvenlik önlemlerinin benimsenmesini savundu. ve felaket düzeyinde zarar verebilecek potansiyele sahip. Ve teknoloji bilim uygulamalarında iki Nobel Ödülü’nü eve götürecekti, ancak alıcılarından biri, “bize göre daha zeki sistemlere sahip olmak ve sonunda kontrolü ele geçirmek” konusunda endişe duyduğunu ifade etti.
Bu kadar hızlı hareket eden bir alanda, uzman teknologların takip etmesi zor, hiç kimse ana akım değil.
Ve bu AI hataları – ve gizlilik ve kontrolsüz kullanım konusundaki endişeler – yalnızca kamu endişesini artırdı.
Sadece bana güven
Kendimizi güven yayının ortasında buluyoruz, bu da AI’nin kamu tarafından kabul edilmesini ilerletmeyi, aynı zamanda iş ve teknoloji topluluklarının sorumlu davranmasını gerektiriyor. İlk kısım, şu anda kurumsal düzeyde oynanan oyunun nerede olduğu, her güvenli ve sağlam dağıtımla buhar kazanıyor. Kanıt noktalarımıza dayanarak inşa ediyoruz, bu da sonunda artan kamu güvenine yol açacak. İkinci kısım ise çok daha zor.
AI’nin sorumlu kullanımını kim tanımlar ve uygular? Bir endüstri, düzenlenmeleri gerekenler kendileri olduğunda, rehberlik oluşturabilir mi? Teknologlar AI’yi takip etmekte zorlanıyorsa, politika yapıcılar bilgilendirilecekler mi ve siyasi ajandalarını tartışmadan çıkarabilecekler mi? Ve bir AI milyarderi suddenly kontrol hakkında konuşmak istiyorsa, bir aydınlanma yaşadı mı yoksa sadece takip etmek için fren yapmak mı istiyor?
“Şimdi bana güven” AI ile, kim olursanız olun, işe yaramayacak.
Güven ve doğrula
İnsanlar ChatGPT gibi üretken AI’ye bakıp, acaba bu benim sonraki Google’im mi diye merak ediyorlar? İyi, bir Google arama sonuçlarının en üstünde şimdi AI modeli Gemini tarafından oluşturuluyor. Sorun, basit bir soru gibi “Çiğ et tüketmek güvenli midir?” “Evet, dondurulmuş” cevabını verdiğinde, verilere güvenemezsiniz.
Kamu güveni yayı, geleneksel arama ile aynı şekilde, zamanla ve güvenilirlik kanıtları ile artacak. İronik olarak, aramayı basitleştirmek ve geliştirmek için verdiğimiz çabanın, aslında bir adım geri gittiğimiz sonucu doğdu. Şimdi, o AI tarafından üretilen cevabı en üstte aldıktan sonra, sponsorlu bağlantılar listesinin yanından geçmeniz, sonraki beşini tıklamanız ve bilgiyi仍 doğrulamanız gerekiyor.
Bu, hızlı bir cevap ararken çok fazla iş – ve bir şirketin aynı şeyi yapmasını isteyemezsiniz. Ancak, madenciliğini yaptığınız verileri, kendi hizmet biletlerinizle zenginleştirdiğinizde, aslında ortamınız hakkında gerçek bilgi getiriyorsunuz. Algoritmik olarak, sonra da hayal görme oranını düşürebilirsiniz, ancak yine de “güven ve doğrula” durumu kalıyor.
Siyaneti dışarıda tut
AI’yi düzenleme konusunda, bazıları atın ahırdan kaçtığını ve muhtemelen yakalanmayacağını söylüyor. Örneğin, bir öğrencinin bir makaleyi kendisi mi yazdığı yoksa GenAI mi kullandığını kontrol etmek için gerçekten etkili araçlar yok. Teknoloji çok ileride.
Bunu düzenlemek çok karmaşık olacak ve dürüst olmak gerekirse, çok ince bir buzun üzerine gireceğiz. Gerçekten etkili dış düzenleyicilerden decades ahead olan teknoloji şirketleri biliyoruz. Ancak, bir yolu açmakta iyiyiz, geri çekilmekte değiliz. Yine de, sonunda, governance uygulamaya çalışmak için inovatörlere düşebilir. Başka kim yapabilir – sorumlu bir şekilde?
Birçok politikacı bunu denemekten mutlu olacaktır. Risk, anlamama eksikliğinin yanı sıra, kişisel ve siyasi bir ajandayı ilerletme riski vardır. Odakları, AI’yi geliştirmekten çok, siyasi çıkarlarını ilerletmeye yönelik olabilir. Kamu korkularından yararlanarak, AI’nin ilerlemesini engellemek için ağır bir el kullanabilirler.
CHIPS ve Bilim Yasası, sağlıklı hükümet eyleminin iyi bir örneği oldu, hesaplama ve elektronik cihazlar için imalat tesislerinin inşasında dramatik 15 kat artışa yol açtı. Ancak bu, artan bir şekilde geçmişin bir kalıntısı olan bipartizanlıkla mümkün oldu.
Bunun layığı mıyız?
AI’ye çok para akışı var ve önümüzdeki iki on yıl içinde çok para yapılacak. Ne kadar, ne kadar hızlı ve nasıl güvenli olacağı görülmesi gereken bir şey. Herhangi bir gün, bir derin sahte, bir kişinin tehlike altındaki bir kuşun yumurtalarını jonglör gibi gösteren bir videoyu gösterebilir. Kamu dehşete düşecek ve belki de AI tarafından üretilmiş olduğu ortaya çıkacak, ancak o yumurta kabuğuna geri dönmez – zarar zaten yapılmış olur.
Böylesi şeylerin, bilgilendirilmiş teknologlar tarafından düzenlenmesini istiyoruz. Bu, bir konsey, standart kurulu, uluslararası çerçeve – ne alacağı görülmesi gereken bir şey. Ancak bilinen, AI’nin bir güven yayında olduğu ve endüstri olarak, buna layık olduğumuzu kanıtlamamız gerektiği.












