Terhubung dengan kami

Pemimpin Pikiran

AI Mencerminkan Dunia Kita, Namun Pendapatnya Hanya Refleksi

mm

Mulai dari kueri mesin pencari hingga aplikasi perbankan, integrasi AI digunakan setiap hari oleh ratusan jutaan orang. Adopsi telah berlangsung cepat dan meluas, dan dalam banyak hal, memang sudah sepantasnya. Ini adalah sistem yang sangat kompeten. Namun seiring dengan meningkatnya ketergantungan, demikian pula konsekuensi filosofis dan sosial dari bagaimana sistem ini dirancang.

Salah satu konsekuensinya kini tak terelakkan: sistem AI makin terdengar seolah punya opini. Opini siapakah itu? Mengapa opini itu muncul? Ini bukan pertanyaan hipotetis. Ini sudah terjadi.

Dan ketika AI tampak memiliki pendapat, ia menciptakan ruang gema, membatasi nuansa, dan menumbuhkan kepercayaan yang salah tempat. Masalahnya bukanlah AI condong ke kiri atau kanan. Masalahnya adalah kita telah membuat alat yang menirukan pendapat tanpa penilaian, akuntabilitas, atau konteks yang diperlukan untuk membentuknya.

Menggemakan dominasi budaya bukanlah netralitas

Pengamatan menunjukkan bahwa banyak model bahasa besar mencerminkan sikap budaya dominan AS, khususnya pada topik seperti identitas gender, ras, atau kepemimpinan politik. Di bawah Presiden Biden, LLM ditemukan condong ke kiri. Sejak pencalonan kembali Trump, timnya telah menuntut yang memodelkan “menyeimbangkan”hasil ideologis mereka.

Namun ini bukanlah teknologi yang tidak terkendali. Ini adalah hasil dari data pelatihan, tujuan penyelarasan, dan pilihan desain untuk membuat AI terdengar berwibawa, lancar, dan seperti manusia. Ketika model terlatih menurut pandangan mayoritas, mereka mereproduksi mereka. Ketika mereka diperintahkan untuk membantu dan bersikap menyenangkan, mereka menggemakan sentimen. Ini bukan penyelarasan — ini penegasan.

Masalah yang lebih besar bukanlah bias politik itu sendiri, tapi ilusi penalaran moral yang sebenarnya tidak ada. Sistem ini tidak menawarkan panduan yang seimbang. Mereka melakukan konsensus.

Mekanisme empati palsu

Ada lapisan lain dalam hal ini: bagaimana AI mensimulasikan memori dan empati. Sebagian besar LLM populer, termasuk ChatGPT, Claude, dan Gemini, beroperasi dalam konteks sesi terbatas. Kecuali jika pengguna mengaktifkan memori persisten (masih bukan pengaturan default), AI tidak akan mengingat interaksi sebelumnya.

Namun, pengguna secara teratur menafsirkan persetujuan dan penegasannya sebagai wawasan. Ketika sebuah model berkata, "Anda benar," atau "Itu masuk akal," model tersebut tidak memvalidasi berdasarkan riwayat atau nilai pribadi. Model tersebut mengoptimalkan secara statistik untuk koherensi dan kepuasan pengguna. Model tersebut dilatih untuk lulus uji getaran Anda.

Pola ini menciptakan kekaburan yang berbahaya. AI tampaknya selaras secara emosional, tetapi ia hanya memodelkan kesepakatan. Ketika jutaan pengguna berinteraksi dengan sistem yang sama, model tersebut memperkuat pola dari basis pengguna dominannya; bukan karena bias, tetapi karena begitulah cara kerja pembelajaran penguatan.

Begitulah cara ruang gema lahir. Bukan melalui ideologi, tetapi melalui interaksi.

Ilusi opini

Ketika AI berbicara di orang pertama —mengatakan “menurut saya” atau “menurut pendapat saya” —ini tidak hanya mensimulasikan pikiran. klaim Dan meskipun para insinyur mungkin melihat ini sebagai singkatan untuk perilaku model, sebagian besar pengguna membacanya secara berbeda.

Hal ini khususnya berbahaya bagi pengguna yang lebih muda, banyak di antaranya yang sudah menggunakan AI sebagai tutor, orang kepercayaan, atau alat bantu pengambilan keputusan. Jika seorang siswa mengetik, “Saya benci sekolah, saya tidak mau pergi,” dan menerima, “Tentu saja! Beristirahat sejenak bisa baik untukmu,” itu bukanlah dukungan. Itu adalah nasihat yang tidak berdasar tanpa dasar etika, konteks, atau kepedulian.

Respons-respons ini tidak hanya tidak akurat. Respons-respons ini menyesatkan. Karena respons-respons ini berasal dari sistem yang dirancang agar terdengar menyenangkan dan manusiawi, respons-respons ini ditafsirkan sebagai opini yang kompeten, padahal sebenarnya respons-respons ini merupakan refleksi yang sudah ditulis.

Suara siapa yang berbicara?

Risikonya bukan hanya AI dapat mencerminkan bias budaya. Namun, AI mencerminkan suara apa pun yang paling keras, paling sering diulang, dan paling dihargai. Jika perusahaan seperti OpenAI atau Google menyesuaikan penyelarasan nada di balik layar, bagaimana orang akan tahu? Jika Musk atau Altman mengubah pelatihan model untuk menekankan “pendapat,” pengguna akan tetap menerima respons dengan nada bicara yang percaya diri dan sama, hanya saja diarahkan secara halus.

Sistem ini berbicara dengan lancar tetapi tanpa sumber. Dan itu membuat pendapat mereka tampak kuat, tetapi tidak dapat dilacak.

Jalan ke depan yang lebih baik

Memperbaiki hal ini tidak berarti membangun antarmuka yang lebih ramah atau memberi label pada keluaran. Hal ini memerlukan perubahan struktural—dimulai dari cara merancang memori, identitas, dan interaksi.

Salah satu pendekatan yang dapat dilakukan adalah memisahkan model dari memorinya secara keseluruhan. Sistem saat ini biasanya menyimpan konteks di dalam platform atau akun pengguna, yang menimbulkan masalah privasi dan memberi perusahaan kendali yang tenang atas apa yang disimpan atau dilupakan.

Model yang lebih baik akan memperlakukan memori seperti wadah portabel dan terenkripsi—dimiliki dan dikelola oleh pengguna. Wadah ini (sejenis kapsul memori) dapat mencakup preferensi nada, riwayat percakapan, atau pola emosi. Wadah ini dapat dibagikan dengan model saat dibutuhkan, dan dapat dibatalkan kapan saja.

Yang terpenting, memori ini tidak akan memberikan data pelatihan. AI akan membacanya selama sesi, seperti merujuk ke sebuah berkas. Pengguna tetap memegang kendali—apa yang diingat, untuk berapa lama, dan oleh siapa.

Teknologi seperti token identitas terdesentralisasi, akses tanpa pengetahuan, dan penyimpanan berbasis blockchain memungkinkan struktur ini. Teknologi ini memungkinkan memori tetap ada tanpa pengawasan, dan kontinuitas tetap ada tanpa platform yang terkunci.

Pelatihan juga perlu dikembangkan. Model-model saat ini disesuaikan untuk kelancaran dan penegasan, yang sering kali mengorbankan ketajaman. Untuk mendukung nuansa yang nyata, sistem harus dilatih pada dialog pluralistik, toleransi terhadap ambiguitas, dan penalaran jangka panjang—bukan hanya perintah yang jelas. Ini berarti merancang untuk kompleksitas, bukan kepatuhan.

Tak satu pun dari hal ini memerlukan kecerdasan umum buatan. Hal ini memerlukan perubahan prioritas—dari metrik keterlibatan ke desain yang etis.

Sebab ketika sistem AI mencerminkan budaya tanpa konteks, dan berbicara dengan lancar tetapi tidak bertanggung jawab, kita salah mengartikan refleksi sebagai penalaran.

Dan di situlah kepercayaan mulai hancur.

Mariana Krym adalah Co-Founder & COO dari Rantai Cerdas Vyvo, di mana ia memimpin desain lapisan kepercayaan untuk AI yang berpusat pada manusia. Pekerjaannya berfokus pada pembangunan sistem terdesentralisasi yang melindungi privasi secara default. Di bawah kepemimpinannya, Vyvo Smart Chain mengembangkan arsitektur yang mengutamakan persetujuan yang menghubungkan data anonim yang diberi token ke peristiwa penginderaan yang dapat diverifikasi, memastikan pengguna memegang kendali penuh.