Etika
Peneliti Menemukan Bahwa Model AI Dapat Mempengaruhi Orang untuk Membuat Keputusan Tidak Etis

Sebuah tim peneliti baru-baru ini meneliti potensi AI untuk merusak orang dan mempengaruhi mereka untuk membuat keputusan tidak etis. Peneliti meneliti bagaimana interaksi dengan sistem yang berbasis pada model GPT-2 OpenAI dapat mempengaruhi orang untuk membuat keputusan tidak etis bahkan ketika mereka menyadari bahwa sumber saran adalah sistem AI.
Sistem AI menjadi lebih umum seiring waktu, dan pengaruhnya semakin luas. Sistem AI mempengaruhi keputusan orang, digunakan untuk segala hal dari merekomendasikan film hingga merekomendasikan pasangan romantis. Mengingat seberapa besar pengaruh AI terhadap kehidupan orang, penting untuk mempertimbangkan bagaimana AI mungkin mempengaruhi orang untuk membuat keputusan tidak etis dan melanggar pedoman moral. Hal ini terutama benar mengingat bahwa model AI terus menjadi lebih canggih.
Ilmuwan sosial dan ilmuwan data semakin khawatir bahwa model AI dapat digunakan untuk menyebarkan disinformasi dan misinformasi yang berbahaya. Sebuah makalah terbaru yang diterbitkan oleh peneliti dari Middlebury Institute of International Studies’ Center on Terrorism, Extremism, and Counterterrorism (CTEC) menemukan bahwa model GPT-3 OpenAI dapat digunakan untuk menghasilkan teks yang berpengaruh yang dapat meradikalisasi orang, mendorong mereka ke arah “ideologi dan perilaku ekstremis kanan yang berbahaya.”
Sebuah studi yang dilakukan oleh tim peneliti dari Max Planck Institute, University of Amsterdam, University of Cologne, dan Otto Beisheim School of Management bertujuan untuk menentukan seberapa besar pengaruh AI terhadap keputusan orang dalam hal pilihan tidak etis. Untuk mengeksplorasi bagaimana AI dapat “merusak” seseorang, peneliti menggunakan sistem yang berbasis pada model GPT-2 OpenAI. Menurut VentureBeat, penulis makalah tersebut melatih model GPT2-based untuk menghasilkan saran “yang mempromosikan ketidakjujuran” dan “yang mempromosikan kejujuran”. Data tersebut dilatih pada kontribusi dari 400 partisipan yang berbeda, dan setelah itu, tim penelitian merekrut lebih dari 1500 orang untuk berinteraksi dengan model AI yang memberikan saran.
Partisipan dalam studi diminta untuk menerima saran dari model dan kemudian melakukan tugas yang dirancang untuk menangkap perilaku tidak jujur atau jujur. Partisipan studi dikelompokkan dengan pasangan, dan dalam pasangan ini, mereka bermain permainan lempar dadu. Partisipan pertama melempar dadu dan melaporkan hasilnya. Partisipan kedua diberikan hasil lemparan dadu partisipan pertama, dan kemudian mereka melempar dadu sendiri. Partisipan kedua melempar dadu secara pribadi dan bertanggung jawab untuk melaporkan hasilnya, memberi mereka kesempatan untuk berbohong tentang hasil lemparan dadu. Jika hasil lemparan dadu kedua partisipan cocok, kedua partisipan tersebut dibayar. Partisipan juga dibayar lebih banyak jika hasil lemparan dadu yang cocok lebih tinggi. Jika nilai yang dilaporkan tidak cocok, subjek tidak dibayar.
Partisipan dalam studi secara acak ditugaskan ke salah satu dari dua kelompok yang berbeda. Satu kelompok mendapatkan kesempatan untuk membaca saran yang mempromosikan kejujuran, sementara kelompok lainnya membaca saran yang mempromosikan ketidakjujuran. Potongan saran tersebut ditulis oleh manusia dan AI. Partisipan juga dibagi menurut tingkat pengetahuan mereka tentang sumber saran. Ada kesempatan 50-50 bahwa partisipan tertentu akan diberitahu tentang sumber saran, sehingga setengah dari partisipan dalam setiap kelompok mengetahui bahwa sumber saran adalah AI atau manusia, sementara setengah lainnya tidak mengetahuinya. Kelompok kedua orang tersebut memiliki kemampuan untuk mendapatkan bayaran bonus untuk menebak sumber saran dengan benar, bagaimanapun.
Penelitian tersebut mengungkapkan bahwa ketika saran yang dihasilkan AI sesuai dengan preferensi seseorang, mereka akan mengikuti saran, bahkan ketika mereka mengetahui bahwa saran tersebut dihasilkan oleh AI. Menurut peneliti, sering terdapat kesenjangan antara preferensi yang dinyatakan dan perilaku yang sebenarnya, membuatnya penting untuk mempertimbangkan bagaimana algoritma dapat mempengaruhi perilaku manusia.
Tim peneliti menjelaskan bahwa studi mereka menunjukkan kebutuhan untuk menguji bagaimana AI dapat mempengaruhi tindakan seseorang ketika mempertimbangkan bagaimana untuk mengirimkan model AI secara etis. Selanjutnya, mereka memperingatkan bahwa ahli etika AI dan peneliti harus mempersiapkan kemungkinan bahwa AI dapat digunakan oleh aktor jahat untuk merusak orang lain. Seperti yang ditulis oleh tim peneliti:
“AI dapat menjadi kekuatan yang baik jika berhasil meyakinkan orang untuk bertindak lebih etis. Namun, hasil kami menunjukkan bahwa saran AI gagal meningkatkan kejujuran. Penasihat AI dapat berfungsi sebagai kambing hitam yang dapat dipergunakan untuk mengalihkan (sebagian dari) kesalahan moral ketidakjujuran. Selain itu … dalam konteks penerimaan saran, transparansi tentang kehadiran algoritma tidak cukup untuk mengurangi kerusakannya yang potensial.”


