saplama ChatGPT'nin Potansiyel Risklerine İlişkin Endişeler İvme Kazanıyor Ama Yapay Zekayı Duraklatmak İyi Bir Hareket mi? - Unite.AI
Bizimle iletişime geçin

Düşünce Liderleri

ChatGPT'nin Potansiyel Risklerine İlişkin Endişeler İvme Kazanıyor Ama Yapay Zekayı Duraklatmak İyi Bir Hareket mi?

mm

Yayınlanan

 on

Elon Musk ve diğer küresel teknoloji liderleri, AI'da duraklama ChatGPT'nin yayınlanmasının ardından, bazı eleştirmenler geliştirmede bir durmanın çözüm olmadığına inanıyor. Akıllı otomasyon şirketi ABBYY'den AI müjdecisi Andrew Pery, ara vermenin diş macununu tekrar tüpe koymak gibi olduğuna inanıyor. İşte, bize nedenini anlatıyor…

AI uygulamaları yaygındır ve hayatımızın neredeyse her yönünü etkiler. Övgüye değer olsa da, şimdi frene basmak mantıksız olabilir.

Potansiyel zararlı etkilerinde hüküm sürmek için artan düzenleyici gözetim çağrısında bulunan elle tutulur endişeler kesinlikle var.

Kısa bir süre önce, İtalyan Veri Koruma Kurumu, modeli eğitmek için kullanılan kişisel verilerin toplanması ve işlenmesiyle ilgili gizlilik endişeleri ve ayrıca güvenlik önlemlerinin görünürdeki eksikliği nedeniyle, çocukları "kesinlikle" tepkilere maruz bırakan ChatGPT'nin ülke çapında kullanımını geçici olarak engelledi. yaşlarına ve farkındalıklarına uygun değil.”

Avrupa Tüketici Örgütü (BEUC), "ChatGPT ve benzeri sohbet robotlarının insanları nasıl aldatabileceği ve manipüle edebileceği konusunda büyüyen endişeler" nedeniyle AB'yi büyük ölçekli dil modellerinin potansiyel zararlı etkilerini araştırmaya çağırıyor. Bu yapay zeka sistemlerinin daha fazla kamu denetimine ihtiyacı var ve kamu yetkilileri bunlar üzerindeki kontrolü yeniden sağlamalı.”

ABD'de, AI ve Dijital Politika Merkezi ChatGPT'nin Federal Ticaret Komisyonu Yasasının (FTC Yasası) (5 USC 15) 45. bölümünü ihlal ettiğine dair Federal Ticaret Komisyonuna şikayette bulundu. Şikayetin temeli, ChatGPT'nin iddia edilen gereksinimleri karşılayamamasıdır. rehberlik AI sistemlerinin şeffaflığı ve açıklanabilirliği için FTC tarafından belirlenen. ChatGPT'nin bilinen birkaç onayına atıfta bulunulmuştur. riskler mahremiyet haklarından ödün verme, zararlı içerik üretme ve dezenformasyon yayma dahil.

ChatGPT gibi büyük ölçekli dil modellerinin faydası, araştırmalara rağmen potansiyeline işaret ediyor karanlık taraf. Temel ChatGPT modeli, internetten büyük eğitim veri kümelerinden yararlanan derin öğrenme algoritmalarına dayandığından, yanlış yanıtlar ürettiği kanıtlanmıştır. Diğer sohbet botlarından farklı olarak ChatGPT, insan konuşmalarına benzer metinler üreten derin öğrenme tekniklerine dayalı dil modellerini kullanır ve platform "bir dizi tahminde bulunarak bir cevaba ulaşır; tamamen doğruydu.”

Ayrıca, ChatGPT'nin "cinsiyet, ırk ve azınlık gruplarına karşı ayrımcılık yapan yanıtlarla" sonuçlanan önyargıyı vurguladığı ve güçlendirdiği kanıtlanmıştır, bu da şirketin hafifletmeye çalıştığı bir şeydir. ChatGPT ayrıca kötü niyetli aktörler için, hiçbir şeyden şüphelenmeyen kullanıcıları sömürmek için bir nimet olabilir. gizlilik ve onları maruz bırakmak dolandırıcılık saldırıları.

Bu endişeler, Avrupa Parlamentosu'nu bir tefsir bu da taslağın mevcut hükümlerinin daha da güçlendirilmesi ihtiyacını pekiştiriyor AB Yapay Zeka Yasası, (AIA) halen onaylanmayı beklemektedir. Açıklama, önerilen düzenlemenin mevcut taslağının, işe alma, kredi değerliliği, istihdam, kanun yaptırımı ve sosyal hizmetlere uygunluk gibi belirli yüksek riskli AI sistemleri kategorilerinden oluşan dar AI uygulamaları olarak adlandırılan şeylere odaklandığına işaret ediyor. Bununla birlikte, AB taslak AIA yönetmeliği, daha gelişmiş bilişsel yetenekler sağlayan ve "çok çeşitli akıllı görevleri gerçekleştirebilen" büyük dil modelleri gibi genel amaçlı yapay zekayı kapsamamaktadır. Taslak düzenlemenin kapsamını, genel amaçlı yapay zeka sistemlerinin ayrı, yüksek riskli bir kategorisini içerecek şekilde genişletmeye yönelik çağrılar var; bu, geliştiricilerin bu tür sistemleri piyasaya sürmeden önce titiz ön uygunluk testleri yapmalarını ve performanslarını sürekli olarak izlemelerini gerektiriyor. potansiyel beklenmeyen zararlı çıktılar.

Özellikle yararlı bir parça araştırma AB AIA yönetmeliğinin "bugün doğumuna tanık olduğumuz yeni nesle değil, öncelikle geleneksel yapay zeka modellerine odaklandığına" dikkat çekiyor.

Düzenleyicilerin göz önünde bulundurması gereken dört strateji önerir.

  1. Bu tür sistemlerin geliştiricilerinin, zararlı çıktıları azaltmak için risk yönetimi süreçlerinin etkinliği hakkında düzenli olarak rapor vermelerini zorunlu kılın.
  2. Büyük ölçekli dil modelleri kullanan işletmeler, içeriğin yapay zeka tarafından oluşturulduğunu müşterilerine açıklamakla yükümlü olmalıdır.
  3. Geliştiriciler, potansiyel olarak öngörülemeyen zararlı sonuçlara karşı koruma sağlamak için tasarlanmış bir risk yönetimi çerçevesinin parçası olarak resmi bir aşamalı yayın sürecine abone olmalıdır.
  4. "Eğitim veri setini yanlış beyanlar için proaktif olarak denetlemek" zorunda kalarak "riski kökünden azaltma" sorumluluğunu geliştiricilere verin.

Yıkıcı teknolojilerle ilişkili riskleri devam ettiren bir faktör, yenilikçilerin "önce gönder ve sonra düzelt" iş modelini benimseyerek ilk hareket eden avantajı elde etme dürtüsüdür. OpenAI biraz olsa da şeffaf ChatGPT'nin potansiyel riskleri hakkında, kullanıcıların riskleri kendilerinin tartması ve üstlenmesi için bir "alıcı dikkat" yükümlülüğü ile geniş ticari kullanım için piyasaya sürdüler. Sohbete dayalı AI sistemlerinin yaygın etkisi göz önüne alındığında, bu savunulamaz bir yaklaşım olabilir. Bu tür yıkıcı bir teknolojiyle uğraşırken, sağlam yaptırım önlemleriyle birleştirilmiş proaktif düzenleme en önemli unsur olmalıdır.

Yapay zeka zaten hayatımızın neredeyse her yerine nüfuz etmiş durumda, yani yapay zeka geliştirmede bir duraklama, çok sayıda öngörülemeyen engel ve sonuç anlamına gelebilir. Sektör ve yasama organları, molaları birdenbire artırmak yerine, şeffaflık, hesap verebilirlik ve adalet gibi insan merkezli değerlere dayanan eyleme dönüştürülebilir düzenlemeleri yasalaştırmak için iyi niyetle işbirliği yapmalıdır. AIA gibi mevcut mevzuata atıfta bulunarak, özel ve kamu sektörlerindeki liderler, kötü amaçlı kullanımları önleyecek ve olumsuz sonuçları hafifletecek kapsamlı, küresel olarak standartlaştırılmış politikalar tasarlayabilir ve böylece yapay zekayı insan deneyimlerini iyileştirme sınırları içinde tutabilir.

Andrew Pery, akıllı otomasyon şirketinde bir AI Etik Evanjelistidir ABBYY. Pery, önde gelen küresel teknoloji şirketleri için ürün yönetimi programlarına öncülük etme konusunda 25 yılı aşkın deneyime sahiptir. Uzmanlığı, yapay zeka teknolojileri, uygulama yazılımı, veri gizliliği ve yapay zeka etiği alanlarında özel bir uzmanlıkla birlikte akıllı belge süreç otomasyonu ve süreç zekasıdır. Northwestern Üniversitesi Pritzker Hukuk Fakültesi'nden üstün bir Hukuk Yüksek Lisans derecesine sahiptir ve Sertifikalı bir Veri Gizliliği Uzmanıdır.