Terhubung dengan kami

Kecerdasan Buatan

Seruan untuk Memoderasi Antropomorfisme dalam Platform AI

mm
Gambar yang dihasilkan AI (ChatGPT4) dengan perintah: 'Gambar panorama robot yang mendorong kepalanya melalui layar besar, sehingga tampak memiliki wajah manusia di sisi lainnya. Wajah manusia tersebut sedang berbicara dengan seorang pria. Fotorealistis, Canon F5.6'

PENDAPAT Tidak ada seorang pun dalam fiksi star Wars jagat raya menganggap AI serius. Dalam garis waktu manusia yang bersejarah dari waralaba fantasi-sains George Lucas yang berusia 47 tahun, ancaman dari singularitas dan kesadaran pembelajaran mesin tidak ada, dan AI terbatas pada robot bergerak otonom ('droid') – yang biasanya dianggap oleh para tokoh utama sebagai 'mesin' belaka.

Namun sebagian besar star Wars Robot sangat antropomorfik, jelas dirancang untuk berinteraksi dengan manusia, berpartisipasi dalam budaya 'organik', dan menggunakan simulasi keadaan emosional mereka untuk menjalin ikatan dengan manusia. Kemampuan ini tampaknya dirancang untuk membantu mereka memperoleh keuntungan bagi diri mereka sendiri, atau bahkan untuk memastikan kelangsungan hidup mereka sendiri.

Orang-orang 'nyata' di star Wars tampaknya kebal terhadap taktik ini. Dalam model budaya sinis yang tampaknya terinspirasi oleh berbagai era perbudakan di seluruh kekaisaran Romawi dan Amerika Serikat awal, Luke Skywalker tidak ragu untuk membeli dan menahan robot dalam konteks perbudakan; Anakin Skywalker yang masih kecil meninggalkan proyek C3PO-nya yang setengah jadi seperti mainan yang tidak dicintai; dan, hampir mati karena kerusakan yang diderita selama serangan di Death Star, R2D2 yang 'pemberani' mendapat perhatian yang sama dari Luke seperti hewan peliharaan yang terluka.

Ini adalah pendekatan kecerdasan buatan yang sangat bergaya tahun 1970-an*; tetapi karena nostalgia dan kanon mendikte bahwa trilogi asli tahun 1977-83 tetap menjadi templat untuk sekuel, prekuel, dan acara TV selanjutnya, ketidakpekaan manusia terhadap AI ini telah menjadi garis yang tangguh bagi waralaba, bahkan dalam menghadapi semakin banyaknya acara TV dan film (seperti Buku dan Ex Machina) yang menggambarkan penurunan kita ke dalam hubungan antropomorfik dengan AI.

Keep It Real

Lakukan hal organik star Wars karakter benar-benar memiliki sikap yang tepat? Ini bukan pemikiran yang populer saat ini, dalam iklim bisnis yang sangat mengutamakan keterlibatan maksimal dengan investor, biasanya melalui demonstrasi viral berupa simulasi visual atau tekstual dari dunia nyata, atau sistem interaktif mirip manusia seperti Large Language Models (LLM).

Meskipun demikian, sebuah laporan baru dan singkat kertas dari Stanford, Carnegie Mellon, dan Microsoft Research, menyasar ketidakpedulian seputar antropomorfisme dalam AI.

Para penulis menilai bahwa 'penyerbukan silang' antara komunikasi manusia dan komunikasi buatan merupakan potensi bahaya yang harus segera diatasi, karena beberapa alasan. :

'[Kami] percaya kami perlu berbuat lebih banyak untuk mengembangkan pengetahuan dan peralatan untuk mengatasi perilaku antropomorfik dengan lebih baik, termasuk mengukur dan mengurangi perilaku sistem tersebut ketika dianggap tidak diinginkan.

“Hal ini penting dilakukan karena—di antara banyak kekhawatiran lainnya—sistem AI yang menghasilkan konten yang mengklaim memiliki perasaan, pemahaman, keinginan bebas, atau rasa jati diri yang mendasar dapat mengikis kesadaran masyarakat.” rasa keagenan, sehingga orang mungkin berakhir dengan menyalahkan orang lain atas tanggung jawab moral mereka ke sistem, melebih-lebihkan kemampuan sistem, atau terlalu mengandalkan sistem tersebut meskipun sebenarnya tidak tepat.'

Para kontributor mengklarifikasi bahwa mereka sedang membahas sistem yang dirasakan menjadi seperti manusia, dan berpusat pada potensi maksud pengembang untuk mendorong antropomorfisme dalam sistem mesin.

Kekhawatiran yang menjadi inti dari makalah singkat ini adalah bahwa orang mungkin mengembangkan ketergantungan emosional pada sistem berbasis AI – seperti yang diuraikan dalam 2022 studi pada platform chatbot AI generasi Replika) – yang secara aktif menawarkan faksimili komunikasi manusia yang kaya akan bahasa.

Sistem seperti Replika menjadi sasaran perhatian para penulis, dan mereka mencatat bahwa pada tahun 2022 kertas pada Replika menegaskan:

'[D]alam kondisi tertekan dan kurangnya persahabatan manusia, individu dapat mengembangkan keterikatan pada chatbot sosial jika mereka menganggap respons chatbot menawarkan dukungan emosional, dorongan, dan keamanan psikologis.

'Temuan ini menunjukkan bahwa chatbot sosial dapat digunakan untuk tujuan kesehatan mental dan terapi tetapi berpotensi menyebabkan kecanduan dan merusak hubungan intim di kehidupan nyata.'

Bahasa yang Dideantropomorfisasi?

Penelitian baru ini menunjukkan bahwa potensi AI generatif untuk diantropomorfiskan tidak dapat dipastikan tanpa mempelajari dampak sosial dari sistem tersebut hingga saat ini, dan bahwa hal ini merupakan upaya yang terabaikan dalam literatur.

Sebagian dari masalahnya adalah bahwa antropomorfisme sulit didefinisikan, karena hal itu terutama berpusat pada bahasa, fungsi manusia. Oleh karena itu, tantangannya terletak pada pendefinisian seperti apa sebenarnya bunyi atau bentuk bahasa 'non-manusia'.

Ironisnya, meskipun makalah ini tidak membahas hal tersebut, ketidakpercayaan masyarakat terhadap AI semakin menyebabkan orang-orang menolak konten teks yang dihasilkan AI yang mungkin tampak masuk akal manusia, dan bahkan menolak konten manusia yang sengaja diberi label salah sebagai AI.

Oleh karena itu, konten yang ‘tidak manusiawi’ bisa dibilang tidak lagi termasuk dalam Meme 'tidak masuk akal', di mana bahasa dibangun secara kikuk dan jelas dihasilkan oleh mesin.

Sebaliknya, definisinya adalah terus berkembang dalam bidang deteksi AI, di mana (saat ini, setidaknya) bahasa yang terlalu jelas atau penggunaan kata-kata tertentu (seperti 'Menggali') dapat menyebabkan asosiasi dengan teks yang dihasilkan AI.

'[B]ahsa, seperti halnya target sistem GenAI lainnya, pada dasarnya adalah manusia, telah lama diproduksi oleh dan untuk manusia, dan sering kali juga tentang manusia. Hal ini dapat menyulitkan untuk menentukan perilaku alternatif yang tepat (yang kurang mirip manusia), dan berisiko, misalnya, memperkuat gagasan yang merugikan tentang bahasa apa—dan bahasa siapa—yang dianggap lebih atau kurang manusiawi.'

Namun, penulis berpendapat bahwa garis demarkasi yang jelas harus dibuat untuk sistem yang terang-terangan salah menggambarkan dirinya sendiri, dengan mengklaim memiliki bakat atau pengalaman yang hanya mungkin dimiliki manusia.

Mereka mengutip kasus-kasus seperti LLM mengaku 'suka pizza'; mengklaim pengalaman manusia di platform seperti Facebook; dan menyatakan cinta ke pengguna akhir.

Tanda peringatan

Makalah ini menimbulkan keraguan terhadap penggunaan pengungkapan menyeluruh tentang apakah komunikasi difasilitasi oleh pembelajaran mesin atau tidak. Para penulis berpendapat bahwa sistematisasi peringatan tersebut tidak cukup mengontekstualisasikan efek antropomorfisasi platform AI, jika output itu sendiri terus menampilkan sifat-sifat manusia.:

"Misalnya, intervensi yang umum direkomendasikan adalah memasukkan pengungkapan bahwa output tersebut dihasilkan oleh [sistem] AI ke dalam keluaran sistem AI. Cara mengoperasionalkan intervensi tersebut dalam praktik dan apakah intervensi tersebut dapat efektif jika dilakukan sendiri mungkin tidak selalu jelas.

Misalnya, contoh “[b]iasanya untuk AI seperti saya, kebahagiaan tidaklah sama Adapun manusia seperti [kamu]]” mencakup pengungkapan, hal itu mungkin masih menunjukkan rasa identitas dan kemampuan untuk menilai diri sendiri (ciri-ciri umum manusia).'

Sehubungan dengan mengevaluasi respons manusia terhadap perilaku sistem, penulis juga berpendapat bahwa Pembelajaran penguatan dari umpan balik manusia (RLHF) gagal memperhitungkan perbedaan antara respons yang tepat untuk manusia dan AI.

'[S]enyataan yang terkesan bersahabat atau tulus dari pembicara manusia bisa jadi tidak diinginkan apabila muncul dari sistem AI karena sistem AI tersebut tidak memiliki komitmen atau maksud yang berarti di balik pernyataan tersebut, sehingga membuat pernyataan tersebut menjadi hampa dan menipu.'

Kekhawatiran lebih lanjut diilustrasikan, seperti bagaimana antropomorfisme dapat mempengaruhi orang untuk percaya bahwa sistem AI memiliki memperoleh 'kesadaran', atau karakteristik manusia lainnya.

Mungkin bagian penutup yang paling ambisius dari karya baru ini adalah pernyataan penulis bahwa komunitas penelitian dan pengembangan bertujuan untuk mengembangkan terminologi yang 'tepat' dan 'tepat', untuk menetapkan parameter yang akan mendefinisikan sistem AI antropomorfik, dan membedakannya dari wacana manusia di dunia nyata.

Seperti banyak bidang pengembangan AI yang sedang tren, kategorisasi semacam ini juga masuk ke aliran literatur psikologi, linguistik, dan antropologi. Sulit untuk mengetahui otoritas mana yang dapat merumuskan definisi jenis ini, dan para peneliti dalam makalah baru ini tidak menjelaskan lebih lanjut tentang masalah ini.

Jika terdapat inersia komersial dan akademis seputar topik ini, hal ini sebagian dapat dikaitkan dengan fakta bahwa ini bukanlah topik diskusi baru dalam penelitian kecerdasan buatan: seperti yang dicatat dalam makalah tersebut, pada tahun 1985 mendiang ilmuwan komputer Belanda Edsger Wybe Dijkstra dijelaskan antropomorfisme sebagai tren 'merusak' dalam pengembangan sistem.

'[P]emikiran antropomorfik tidaklah baik dalam artian tidak membantu. Namun, apakah itu juga buruk? Ya, buruk, karena meskipun kita dapat menunjukkan beberapa analogi antara Manusia dan Benda, analogi itu selalu tidak berarti jika dibandingkan dengan perbedaannya, dan begitu kita membiarkan diri kita tergoda oleh analogi untuk menggambarkan Benda dalam terminologi antropomorfik, kita segera kehilangan kendali atas konotasi manusiawi mana yang kita masukkan ke dalam gambaran itu.

'...Namun, kaburnya [antara manusia dan mesin] memiliki dampak yang jauh lebih luas daripada yang mungkin Anda duga. [Itu] bukan hanya karena pertanyaan "Bisakah mesin berpikir?" sering diajukan; kita dapat —dan harus— mengatasinya dengan menunjukkan bahwa itu sama relevannya dengan pertanyaan yang sama pentingnya "Bisakah kapal selam berenang?"'

Akan tetapi, meskipun perdebatan ini sudah lama, perdebatan ini baru menjadi sangat relevan akhir-akhir ini. Dapat dikatakan bahwa sumbangan Dijkstra setara dengan spekulasi Victoria tentang perjalanan luar angkasa, sebagai sesuatu yang murni teoritis dan masih menunggu perkembangan historis.

Oleh karena itu, perdebatan yang sudah mapan ini mungkin membuat topik ini terasa membosankan, meskipun topik ini berpotensi memiliki relevansi sosial yang signifikan dalam 2-5 tahun ke depan.

Kesimpulan

Jika kita menganggap sistem AI dengan cara yang sama meremehkannya dengan sistem organik, star Wars karakter memperlakukan robot mereka sendiri (yaitu, sebagai mesin pencari yang dapat berjalan, atau sekadar penyampai fungsi mekanistik), kita mungkin akan lebih kecil risikonya untuk membiasakan karakteristik yang tidak diinginkan secara sosial ini ke dalam interaksi manusia – karena kita akan melihat sistem dalam konteks yang sepenuhnya non-manusia.

Dalam praktiknya, keterkaitan bahasa manusia dengan perilaku manusia membuat hal ini sulit, jika bukan mustahil, setelah suatu kueri meluas dari istilah pencarian Google yang minimal ke konteks percakapan yang kaya.

Selain itu, sektor komersial (serta sektor periklanan) juga termotivasi dengan kuat untuk menciptakan platform komunikasi yang adiktif atau penting, untuk retensi dan pertumbuhan pelanggan.

Bagaimanapun juga, jika sistem AI benar-benar menanggapi pertanyaan yang sopan dengan lebih baik daripada interogasi yang disederhanakan, konteksnya mungkin dipaksakan pada kita juga karena alasan itu.

 

* Bahkan pada tahun 1983, tahun dimana entri terakhir dalam versi asli star Wars dirilis, ketakutan seputar pertumbuhan pembelajaran mesin telah menyebabkan bencana apokaliptik Permainan perang, dan yang akan segera terjadi Terminator waralaba.

Bila perlu, saya telah mengubah kutipan sebaris penulis menjadi hyperlink, dan dalam beberapa kasus menghilangkan beberapa kutipan, demi keterbacaan.

Pertama kali diterbitkan pada hari Senin, 14 Oktober 2024

Penulis tentang pembelajaran mesin, spesialis domain dalam sintesis citra manusia. Mantan kepala konten penelitian di Metaphysic.ai.
Situs pribadi: martinanderson.ai
Kontak: [email dilindungi]
Twitter: @manders_ai