Yapay Zeka
Yapay Zeka Platformlarında Antropomorfizmi Orta Düzeyde Tutma Çağrısı

FİKİR Kurgusal hikayede hiç kimse Star Wars evren yapay zekayı ciddiye alıyor. George Lucas'ın 47 yıllık bilim-fantezi serisinin tarihsel insan zaman çizelgesinde, tekilliklerden ve makine öğrenme bilincinden kaynaklanan tehditler yok ve yapay zeka otonom mobil robotlarla sınırlı ('droidler') – bunlar, kahramanlar tarafından genellikle sadece 'makineler' olarak görmezden gelinir.
Yine de çoğu Star Wars Robotlar son derece antropomorfiktir ve açıkça insanlarla etkileşim kurmak, "organik" kültüre katılmak ve duygusal durumlarının simülakralarını kullanarak insanlarla bağ kurmak için tasarlanmıştır. Bu yeteneklerin, görünüşe göre kendilerine bir avantaj sağlamalarına, hatta kendi hayatta kalmalarını sağlamalarına yardımcı olmak için tasarlandığı anlaşılıyor.
'Gerçek' insanlar Star Wars Bu taktiklere hapsolmuş gibi görünüyorlar. Roma İmparatorluğu ve erken dönem Amerika Birleşik Devletleri'ndeki çeşitli kölelik dönemlerinden esinlendiği anlaşılan alaycı bir kültürel modelde, Luke Skywalker kölelik bağlamında robotları satın alıp kısıtlamaktan çekinmiyor; çocuk Anakin Skywalker, yarım kalmış C3PO projesini sevilmeyen bir oyuncak gibi terk ediyor; ve Ölüm Yıldızı'na yapılan saldırı sırasında aldığı hasardan neredeyse ölmek üzere olan 'cesur' R2D2, Luke'tan yaralı bir evcil hayvanla neredeyse aynı ilgiyi görüyor.
Bu, yapay zekaya dair 1970'lerin bir yorumudur*; ancak nostalji ve gelenek, orijinal 1977-83 üçlemesinin daha sonraki devam filmleri, ön filmler ve TV şovları için bir şablon olarak kalmasını gerektirdiğinden, yapay zekaya karşı bu insan duyarsızlığı, giderek artan sayıda TV şovu ve film (örneğin, Onu ve Ex Machina) Yapay zeka ile antropomorfik bir ilişkiye doğru inişimizi tasvir ediyor.
Gerçekçi ol
Organik olanı yap Star Wars Karakterlerin gerçekten doğru tutuma sahip olması mümkün mü? Yatırımcılarla maksimum etkileşimin, genellikle gerçek dünyanın görsel veya metinsel simülasyonlarının viral gösterimleri veya Büyük Dil Modelleri (LLM) gibi insan benzeri etkileşimli sistemler aracılığıyla sağlandığı bir iş ortamında, şu anda pek de popüler bir düşünce değil.
Bununla birlikte, yeni ve kısa bir kâğıt Stanford, Carnegie Mellon ve Microsoft Research'ten gelen bir araştırma, yapay zekadaki antropomorfizme karşı duyarsızlığı ele alıyor.
Yazarlar, insan ve yapay iletişimler arasında algılanan 'çapraz tozlaşmayı', bir dizi nedenden ötürü acilen hafifletilmesi gereken potansiyel bir zarar olarak nitelendiriyor. †:
'[Biz] antropomorfik davranışlarla daha iyi mücadele etmek için bilgi birikimi ve araçlar geliştirmek adına daha fazla şey yapmamız gerektiğine inanıyoruz; bu tür sistem davranışlarını istenmeyen olarak değerlendirildiğinde ölçmek ve azaltmak da buna dahil.
'Bunu yapmak kritik önem taşıyor çünkü diğer birçok endişenin yanı sıra, yapay zeka sistemlerinin örneğin duygulara, anlayışa, özgür iradeye veya temelde bir benlik duygusuna sahip olduğunu iddia eden içerikler üretmesi insanların zihnini aşındırabilir. ajans duygusu, bunun sonucunda insanlar ahlaki sorumluluk atfedebilirler sistemlere, abartmak 'Sistem yetenekleri veya yanlış olsa bile bu sistemlere aşırı güvenmek.'
Katkıda bulunanlar, tartıştıkları sistemlerin şunlar olduğunu açıklıyor: algılanan insan benzeri olmak ve potansiyel etrafında merkezlenmek niyet Geliştiricilerin makine sistemlerinde antropomorfizmi teşvik etmesi.
Kısa makalenin temelinde yatan endişe, insanların yapay zeka tabanlı sistemlere karşı duygusal bağımlılık geliştirebileceğidir - bir makalede özetlendiği gibi 2022 çalışmada gen AI chatbot platformunda replika) – insan iletişimlerinin deyimlerle zenginleştirilmiş bir kopyasını aktif olarak sunar.
Yazarlar, Replika gibi sistemlerin temkinli bir şekilde ele alındığını ve 2022'de daha fazla sistemin piyasaya sürüleceğini belirtiyorlar. kâğıt Replika'da şu iddia dile getirildi:
'[S]ıkıntı ve insan arkadaşlığından yoksunluk koşulları altında, bireyler, sohbet robotlarının duygusal destek, cesaretlendirme ve psikolojik güvenlik sunma tepkilerini algılarlarsa, sosyal sohbet robotlarına karşı bir bağlanma geliştirebilirler.
'Bu bulgular, sosyal sohbet robotlarının ruh sağlığı ve tedavi amaçlı kullanılabileceğini ancak bağımlılık yaratma ve gerçek hayattaki yakın ilişkilere zarar verme potansiyeline sahip olduğunu gösteriyor.'
Antropomorfik Olmayan Bir Dil mi?
Yeni çalışma, üretken yapay zekanın insanlaştırılma potansiyelinin, bugüne kadar bu tür sistemlerin sosyal etkilerinin incelenmeden belirlenemeyeceğini ve bunun literatürde ihmal edilmiş bir uğraş olduğunu savunuyor.
Sorunun bir kısmı, antropomorfizmin tanımlanmasının zor olmasından kaynaklanıyor, çünkü en önemlisi dil, yani bir insan işlevine odaklanıyor. Dolayısıyla asıl zorluk, "insan dışı" dilin tam olarak nasıl duyulduğunu veya göründüğünü tanımlamakta yatıyor.
İronik olarak, makale buna değinmese de, yapay zekaya karşı kamuoyu güvensizliği giderek insanların AI tarafından oluşturulan metin içeriğini reddet makul derecede insani görünebilecek ve hatta reddedebilecek kasıtlı olarak yapay zeka olarak yanlış etiketlenen insan içeriği.
Bu nedenle 'insanlıktan çıkarılmış' içerik artık tartışmasız bir şekilde bu kategoriye girmiyor 'Anlaşılmıyor' memesi, dilin beceriksizce oluşturulduğu ve açıkça bir makine tarafından üretildiği.
Aksine, tanım şudur: sürekli gelişen AI algılama sahnesinde, (en azından şu anda) aşırı derecede açık dil veya belirli kelimelerin kullanımı (örneğin 'Derinlemesine incelemek) yapay zeka tarafından oluşturulan metinle ilişkilendirilmeye neden olabilir.
'[D]il, GenAI sistemlerinin diğer hedeflerinde olduğu gibi, doğuştan insanidir, uzun zamandır insanlar tarafından ve insanlar için üretilmiştir ve çoğu zaman insanlarla ilgilidir. Bu durum, uygun alternatif (daha az insan benzeri) davranışları belirlemeyi zorlaştırabilir ve örneğin, hangi dilin ve kimin dilinin daha fazla veya daha az insani kabul edildiğine dair zararlı fikirlerin somutlaştırılması riskini doğurabilir.'
Ancak yazarlar, yalnızca insanlar için mümkün olan yetenekleri veya deneyimleri iddia ederek kendilerini açıkça yanlış tanıtan sistemler için net bir sınır çizgisinin getirilmesi gerektiğini savunuyorlar.
LLM gibi vakaları örnek gösteriyorlar 'Pizzayı sevdiğini' iddia eden; iddia ederek insan deneyimi Facebook gibi platformlarda; ve aşk ilan etmek Son kullanıcıya.
Uyarı işaretleri
Makale, aşağıdakilerin kullanımına karşı şüphe uyandırıyor: genel açıklamalar bir iletişimin makine öğrenimi tarafından kolaylaştırılıp kolaylaştırılmadığı hakkında. Yazarlar, bu tür uyarıları sistemleştirmenin, çıktının kendisi insan özelliklerini göstermeye devam ederse, AI platformlarının antropomorfize edici etkisini yeterli bir şekilde bağlamlaştırmadığını savunuyorlar†:
'Örneğin, yaygın olarak önerilen bir müdahale, AI sisteminin çıktısına çıktının bir AI [sistemi] tarafından üretildiğine dair bir açıklama eklemektir. Bu tür müdahalelerin pratikte nasıl işlevselleştirileceği ve tek başlarına etkili olup olamayacakları her zaman açık olmayabilir.
'Örneğin, "[b]enim gibi bir YZ için mutluluk aynı değil" örneği [senin gibi bir insan için]]” bir açıklamayı içeriyor olsa bile, hâlâ bir kimlik duygusu ve kendini değerlendirme yeteneği (ortak insan özellikleri) önerebilir.'
Yazarlar ayrıca sistem davranışları hakkındaki insan tepkilerini değerlendirme konusunda da şunu iddia ediyorlar: İnsan geri bildirimlerinden pekiştirmeli öğrenme (RLHF) bir insan ve bir yapay zeka için uygun bir yanıt arasındaki farkı hesaba katmada başarısız oluyor†.
'[B]ir insan konuşmacıdan gelen dostça veya samimi görünen bir ifade, eğer bir yapay zeka sisteminden kaynaklanıyorsa istenmeyen bir durum olabilir; çünkü yapay zeka sisteminde ifadenin arkasında anlamlı bir bağlılık veya niyet bulunmaz ve bu da ifadeyi içi boş ve yanıltıcı kılar.'
İnsan biçimciliğinin, insanların bir yapay zeka sisteminin var olduğuna inanmasını nasıl etkileyebileceği gibi daha fazla endişe de gösterilmektedir. elde edilen 'duygu'ya da diğer insan özellikleri.
Belki de yeni çalışmanın en iddialı kapanış bölümü, yazarların araştırma ve geliştirme topluluğunun 'uygun' ve 'kesin' bir terminoloji geliştirmeyi, antropomorfik bir yapay zeka sistemini tanımlayacak parametreleri belirlemeyi ve onu gerçek dünyadaki insan söyleminden ayırmayı amaçlaması yönündeki çağrısıdır.
Yapay zeka gelişiminin pek çok trend alanında olduğu gibi, bu tür bir sınıflandırma psikoloji, dilbilim ve antropoloji gibi alanların literatürüne de yansıyor. Bu tür tanımları hangi otoritenin formüle edebileceğini bilmek zor ve yeni makalenin araştırmacıları da bu konuya ışık tutmuyor.
Bu konu etrafında ticari ve akademik bir durgunluk varsa, bunun bir kısmı yapay zeka araştırmalarında yeni bir tartışma konusu olmamasından kaynaklanıyor olabilir: Makalede belirtildiği gibi, 1985 yılında merhum Hollandalı bilgisayar bilimci Edsger Wybe Dijkstra tarif edilen Sistem gelişiminde 'zararlı' bir eğilim olarak antropomorfizm.
'[A]ntropomorfik düşünme, yardımcı olmadığı anlamında iyi değildir. Ama aynı zamanda kötü müdür? Evet, öyledir, çünkü İnsan ve Şey arasında bir analojiye işaret edebilsek bile, analoji farklılıklarla karşılaştırıldığında her zaman ihmal edilebilir düzeydedir ve kendimizi, Şey'i antropomorfik terminolojiyle tanımlamak için analojinin cazibesine kaptırmaya izin verdiğimiz anda, resme hangi insan çağrışımlarını dahil ettiğimiz üzerindeki kontrolümüzü hemen kaybederiz.
'...Ancak [insan ile makine arasındaki] bulanıklık, tahmin edebileceğinizden çok daha geniş bir etkiye sahip. [Sorun] yalnızca "Makineler düşünebilir mi?" sorusunun düzenli olarak sorulması değil; bununla, aynı derecede yakıcı olan "Denizaltılar yüzebilir mi?" sorusu kadar önemli olduğunu vurgulayarak başa çıkabiliriz ve çıkmalıyız da.'
Ancak, tartışma eski olsa da, ancak son zamanlarda oldukça güncel hale geldi. Dijkstra'nın katkısının, tamamen teorik ve tarihsel gelişmeleri bekleyen bir yaklaşım olarak, uzay yolculuğuna dair Viktorya dönemi spekülasyonlarına eşdeğer olduğu iddia edilebilir.
Dolayısıyla bu yerleşik tartışma gövdesi, önümüzdeki 2-5 yıl içinde önemli bir toplumsal önem kazanma potansiyeline rağmen, konuya bir yorgunluk hissi verebilir.
Sonuç
Yapay zeka sistemlerini organik sistemlerle aynı küçümseyici şekilde ele alırsak, Star Wars Karakterler kendi robotlarına (yani gezici arama motorları veya mekanik işlevselliğin basit taşıyıcıları olarak) davransalardı, bu sosyal olarak istenmeyen özellikleri insan etkileşimlerimize aktarma riskimiz daha az olurdu; çünkü sistemleri tamamen insan dışı bir bağlamda görüyor olurduk.
Uygulamada, insan dilinin insan davranışıyla iç içe geçmesi, bir sorgu Google arama teriminin sadeliğinden bir konuşmanın zengin bağlamına genişlediğinde bunu zorlaştırır, hatta imkansız hale getirir.
Ayrıca, ticari sektör (ve reklam sektörü) güçlü motivasyona sahip Müşteri sadakati ve büyümesi için bağımlılık yaratan veya olmazsa olmaz iletişim platformları yaratmak.
Her durumda, eğer AI sistemleri gerçekten nazik sorulara daha iyi yanıt vermek Sorgulamaların yalınlaştırılmasından ziyade, bağlamın bize dayatılması da bu nedenle mümkün olabilir.
* Orijinalin son girişinin yayınlandığı yıl olan 1983'te bile Star Wars serbest bırakıldığında, makine öğreniminin büyümesiyle ilgili korkular kıyamet senaryosuna yol açmıştı Savaş oyunlarıve yakın gelecekte Terminatör Franchise.
† Gerektiğinde yazarların satır içi alıntılarını hiper bağlantılara dönüştürdüm ve bazı durumlarda okunabilirlik açısından bazı alıntıları çıkardım.
İlk yayın tarihi Pazartesi, 14 Ekim 2024










