Kecerdasan buatan
Seruan untuk Antropomorfisme yang Moderat dalam Platform AI

OPINI Tidak ada orang di alam semesta fiksi Star Wars yang mengambil AI secara serius. Dalam timeline manusia historis dari waralaba sains-fantasi George Lucas yang berusia 47 tahun, ancaman dari singularitas dan kesadaran pembelajaran mesin tidak ada, dan AI terbatas pada robot mobil otonom (‘droids’) – yang secara teratur diabaikan oleh protagonis sebagai mesin biasa.
Namun, sebagian besar robot Star Wars sangat antropomorfik, dirancang untuk berinteraksi dengan orang, berpartisipasi dalam budaya ‘organik’, dan menggunakan simulacra keadaan emosional mereka untuk berbondong-bondong dengan orang. Kemampuan ini tampaknya dirancang untuk membantu mereka mendapatkan keuntungan tertentu, atau bahkan untuk memastikan kelangsungan hidup mereka.
Orang ‘nyata’ di Star Wars tampaknya kebal terhadap taktik ini. Dalam model budaya sinis yang tampaknya terinspirasi oleh berbagai era perbudakan di Kekaisaran Romawi dan Amerika Serikat awal, Luke Skywalker tidak ragu untuk membeli dan membatasi robot dalam konteks budak; anak Anakin Skywalker meninggalkan proyek C3PO yang setengah jadi seperti mainan yang tidak disukai; dan, hampir mati karena kerusakan yang diterima selama serangan pada Death Star, R2D2 yang ‘berani’ mendapatkan perhatian dari Luke seperti hewan peliharaan yang terluka.
Ini adalah pandangan 1970-an tentang kecerdasan buatan; tetapi karena nostalgia dan kanon menentukan bahwa trilogi asli 1977-83 tetap menjadi template untuk sekuel, prekuel, dan acara TV selanjutnya, ketidakpekaan manusia terhadap AI telah menjadi garis keturunan yang tangguh untuk waralaba ini, bahkan di tengah-tengah pertumbuhan daftar acara TV dan film (seperti Her dan Ex Machina) yang menggambarkan penurunan kita ke dalam hubungan antropomorfik dengan AI.
Teruskan yang Nyata
Apakah karakter organik Star Wars benar-benar memiliki sikap yang tepat? Ini bukanlah pemikiran yang populer saat ini, dalam iklim bisnis yang keras untuk keterlibatan maksimum dengan investor, biasanya melalui demonstrasi viral dari simulasi visual atau teks dari dunia nyata, atau sistem interaktif seperti Model Bahasa Besar (LLM).
Namun, sebuah karya baru dan singkat dari Stanford, Carnegie Mellon dan Microsoft Research, mengarahkan perhatian pada ketidakpedulian sekitar antropomorfisme dalam AI.
Para penulis menggambarkan ‘pencampuran silang’ yang dirasakan antara komunikasi manusia dan buatan sebagai kerugian yang perlu diatasi dengan segera, karena beberapa alasan †:
‘[Kami] percaya kita perlu melakukan lebih banyak untuk mengembangkan pengetahuan dan alat untuk lebih baik menangani perilaku antropomorfik, termasuk mengukur dan memitigasi perilaku sistem tersebut ketika dianggap tidak diinginkan.
‘Melakukan hal ini sangat penting karena—di antara banyak kekhawatiran lain—memiliki sistem AI yang menghasilkan konten yang mengklaim memiliki, misalnya, perasaan, pemahaman, kehendak bebas, atau rasa diri yang mendasar dapat mengikis rasa keagenan orang, sehingga orang mungkin berakhir dengan mengatributkan tanggung jawab moral kepada sistem, mengoverestimasi kemampuan sistem, atau mengandalkan sistem ini bahkan ketika salah.’
Para kontributor menjelaskan bahwa mereka membahas sistem yang dirasakan seperti manusia, dan berpusat pada potensi niat pengembang untuk mendorong antropomorfisme dalam sistem mesin.
Kekhawatiran di jantung makalah singkat ini adalah bahwa orang mungkin mengembangkan ketergantungan emosional pada sistem berbasis AI – seperti yang diuraikan dalam studi 2022 pada platform chatbot AI gen Replika) – yang secara aktif menawarkan tiruan kaya dari komunikasi manusia.
Sistem seperti Replika adalah target dari kehati-hatian penulis, dan mereka mencatat bahwa studi 2022 lain tentang Replika menegaskan:
‘[D]i bawah kondisi stres dan kurangnya persahabatan manusia, individu dapat mengembangkan keterikatan dengan chatbot sosial jika mereka merasakan tanggapan chatbot menawarkan dukungan emosional, dorongan, dan keamanan psikologis.
‘Temuan ini menunjukkan bahwa chatbot sosial dapat digunakan untuk tujuan kesehatan mental dan terapi, tetapi memiliki potensi untuk menyebabkan kecanduan dan merusak hubungan intim dalam kehidupan nyata.’
Bahasa De-Antropomorfisasi?
Makalah baru ini berpendapat bahwa potensi AI generatif untuk diantropomorfisasi tidak dapat ditetapkan tanpa mempelajari dampak sosial dari sistem tersebut hingga saat ini, dan bahwa ini adalah upaya yang diabaikan dalam literatur.
Bagian dari masalahnya adalah bahwa antropomorfisme sulit didefinisikan, karena berpusat pada bahasa, fungsi manusia. Tantangan terletak, oleh karena itu, dalam mendefinisikan apa ‘bahasa non-manusia’ yang tepat terdengar atau terlihat seperti.
Ironisnya, meskipun makalah ini tidak menyentuhnya, ketidakpercayaan publik terhadap AI semakin menyebabkan orang menolak konten teks yang dihasilkan AI yang mungkin tampak manusia, dan bahkan menolak konten manusia yang sengaja diberi label sebagai AI.
Oleh karena itu, konten ‘dehumanisasi’ tidak lagi jatuh ke dalam ‘Tidak menghitung’ meme, di mana bahasa dibangun dengan kikuk dan jelas dihasilkan oleh mesin.
Sebaliknya, definisi terus berkembang dalam adegan deteksi AI, di mana (setidaknya saat ini) bahasa yang jelas berlebihan atau penggunaan kata-kata tertentu (seperti ‘Delve’) dapat menyebabkan asosiasi dengan teks yang dihasilkan AI.
‘[B]ahasa, seperti target lain dari sistem GenAI, secara inheren manusia, telah lama diproduksi oleh dan untuk manusia, dan sering juga tentang manusia. Ini dapat membuatnya sulit untuk menentukan perilaku alternatif yang tepat (kurang seperti manusia), dan berisiko, misalnya, memperkuat konsep berbahaya tentang apa—and siapa—bahasa yang dianggap lebih atau kurang manusia.’
Namun, para penulis berpendapat bahwa garis demarkasi yang jelas harus dibuat untuk sistem yang secara terang-terangan merusak diri mereka sendiri, dengan mengklaim kemampuan atau pengalaman yang hanya mungkin untuk manusia.
Mereka mengutip kasus seperti LLM mengklaim ‘mencintai pizza’; mengklaim pengalaman manusia di platform seperti Facebook; dan mengumumkan cinta kepada pengguna akhir.
Tanda Peringatan
Makalah ini mengangkat keraguan terhadap penggunaan pengungkapan blanket tentang apakah komunikasi difasilitasi oleh pembelajaran mesin. Para penulis berpendapat bahwa sistematisasi peringatan tersebut tidak cukup untuk mengkontekstualisasi efek antropomorfisasi platform AI, jika output itu sendiri terus menampilkan sifat manusia†:
‘Misalnya, intervensi yang umum direkomendasikan adalah memasukkan dalam output sistem AI pengungkapan bahwa output dihasilkan oleh AI [sistem]. Bagaimana mengoperasikan intervensi tersebut dalam praktek dan apakah mereka dapat efektif saja mungkin tidak selalu jelas.
‘Misalnya, sementara contoh “[u]ntuk AI seperti saya, kebahagiaan tidak sama dengan untuk manusia seperti [Anda]” termasuk pengungkapan, itu masih dapat menunjukkan rasa identitas dan kemampuan untuk melakukan penilaian diri (sifat manusia umum).’
Dalam kaitannya dengan mengevaluasi respons manusia tentang perilaku sistem, para penulis juga berpendapat bahwa pembelajaran penguatan dari umpan balik manusia (RLHF) gagal untuk mempertimbangkan perbedaan antara respons yang tepat untuk manusia dan untuk AI†.
‘[P]ernyataan yang tampak ramah atau tulus dari pembicara manusia dapat tidak diinginkan jika berasal dari sistem AI karena yang terakhir kekurangan komitmen atau niat yang berarti di balik pernyataan, sehingga membuat pernyataan itu kosong dan menipu.’
Kekhawatiran lebih lanjut diilustrasikan, seperti cara antropomorfisme dapat mempengaruhi orang untuk percaya bahwa sistem AI telah mencapai ‘kesadaran diri’, atau sifat manusia lainnya.
Mungkin bagian penutup yang paling ambisius dari karya baru ini adalah ajakan para penulis bahwa komunitas penelitian dan pengembangan harus berusaha mengembangkan terminologi ‘tepat’ dan ‘tepat’, untuk menetapkan parameter yang akan mendefinisikan sistem AI antropomorfik, dan membedakannya dari wacana manusia dunia nyata.
Seperti banyak area pengembangan AI yang sedang tren, jenis kategorisasi ini melintasi aliran literatur psikologi, linguistik, dan antropologi. Sulit untuk mengetahui apa otoritas saat ini yang sebenarnya dapat membentuk definisi jenis ini, dan para penulis makalah baru ini tidak memberikan cahaya pada masalah ini.
Jika ada inersia komersial dan akademis sekitar topik ini, itu bisa sebagian karena kenyataan bahwa ini jauh dari topik diskusi baru dalam penelitian kecerdasan buatan: seperti yang dicatat dalam makalah, pada 1985, ilmuwan komputer Belanda yang sudah meninggal, Edsger Wybe Dijkstra menggambarkan antropomorfisme sebagai tren ‘merusak’ dalam pengembangan sistem.
‘[P]emikiran antropomorfik tidak baik dalam arti bahwa itu tidak membantu. Tapi apakah itu juga buruk? Ya, itu buruk, karena bahkan jika kita dapat menunjukkan beberapa analogi antara Manusia dan Benda, analogi itu selalu tidak signifikan dibandingkan dengan perbedaan, dan segera setelah kita membiarkan diri kita tergoda oleh analogi untuk menjelaskan Benda dalam terminologi antropomorfik, kita segera kehilangan kontrol atas konotasi manusia yang kita tarik ke dalam gambar.
‘[T]api kabur [antara manusia dan mesin] memiliki dampak yang jauh lebih luas dari yang Anda duga. [I]t bukan hanya bahwa pertanyaan “Dapatkah mesin berpikir?” secara teratur diajukan; kita dapat —dan harus— menangani itu dengan menunjukkan bahwa itu sama relevan dengan pertanyaan “Dapatkah kapal selam berenang?”’
Namun, meskipun debat ini sudah lama, itu baru-baru ini menjadi sangat relevan. Bisa dibilang bahwa kontribusi Dijkstra setara dengan spekulasi Victoria tentang perjalanan antariksa, sebagai teori murni dan menunggu perkembangan sejarah.
Oleh karena itu, tubuh debat yang mapan ini mungkin memberikan topik ini kesan kelelahan, meskipun potensinya untuk relevansi sosial yang signifikan dalam 2-5 tahun ke depan.
Kesimpulan
Jika kita berpikir tentang sistem AI dengan cara yang sama seperti karakter organik Star Wars memperlakukan robot mereka sendiri (yaitu, sebagai mesin pencari ambulatori, atau sekadar pengirim fungsi mekanis), kita akan secara argumentatif kurang berisiko mengembangkan karakteristik sosial yang tidak diinginkan ini ke interaksi manusia kita – karena kita akan melihat sistem dalam konteks non-manusia sepenuhnya.
Dalam praktek, keterlibatan bahasa manusia dengan perilaku manusia membuat ini sulit, jika tidak mustahil, sekali pertanyaan berkembang dari minimalisme istilah pencarian Google ke konteks kaya percakapan.
Selain itu, sektor komersial (serta sektor periklanan) sangat termotivasi untuk menciptakan platform komunikasi yang adiktif atau penting, untuk retensi dan pertumbuhan pelanggan.
Dalam hal apapun, jika sistem AI benar-benar merespons lebih baik terhadap kueri yang sopan daripada interogasi yang telanjang, konteks mungkin dipaksakan kepada kita juga untuk alasan itu.
* Even pada 1983, tahun yang mana entri terakhir dari Star Wars asli dirilis, kekhawatiran sekitar pertumbuhan pembelajaran mesin telah menyebabkan War Games, dan Terminator yang akan datang.
† Di mana perlu, saya telah mengubah kutipan inline penulis menjadi tautan, dan telah menghilangkan beberapa kutipan, untuk keterbacaan.
Dipublikasikan pertama kali pada hari Senin, 14 Oktober 2024












