Connect with us

Pemimpin pemikiran

AI Memantulkan Dunia Kita, Namun Opininya Hanya Refleksi

mm

Dari query mesin pencari hingga aplikasi perbankan, integrasi AI digunakan setiap hari oleh ratusanjuta orang. Adopsi telah cepat dan meluas, dan dalam banyak hal, sangat layak. Sistem ini sangat kompeten. Namun, seiring pertumbuhan ketergantungan, konsekuensi filosofis dan sosial dari desain sistem ini juga meningkat.

Salah satu konsekuensi tersebut sekarang tidak dapat dihindari: sistem AI semakin terdengar seperti memiliki opini. Opini siapa? Mengapa mereka muncul pertama kali? Ini bukanlah pertanyaan hipotetis. Ini sudah terjadi.

Dan ketika AI tampaknya memiliki opini, itu menciptakan ruang gema, membatasi nuansa, dan memupuk kepercayaan yang salah. Masalahnya bukan bahwa AI condong ke kiri atau ke kanan. Masalahnya adalah kita telah membangun alat yang mensimulasikan opini tanpa penilaian, akuntabilitas, atau konteks yang diperlukan untuk membentuknya.

Mengulangi Dominasi Kultural Bukan Netralitas

Pengamatan menunjukkan bahwa banyak model bahasa besar memantulkan sikap kultural dominan di AS, terutama pada topik seperti identitas gender, ras, atau kepemimpinan politik. Di bawah Presiden Biden, LLM ditemukan condong ke kiri. Sejak tim Trump memulai kampanye pemilu kembali, merekamenuntut bahwa model “mengimbangkan” keluaran ideologis mereka.

Namun, ini bukanlah teknologi yang telah salah. Ini adalah produk dari data pelatihan, tujuan pemeliharaan, dan pilihan desain untuk membuat AI terdengar berwenang, fasih, dan seperti manusia. Ketika model dilatihpada pandangan mayoritas, merekamengulangi mereka. Ketika mereka diinstruksikan untuk membantu dan setuju, mereka mengulangi sentimen. Ini bukanlah pemeliharaan — ini adalah pengakuan.

Masalah yang lebih besar bukanlah bias politis itu sendiri, tetapiilusi penalaran moral di mana tidak ada. Sistem ini tidak menawarkan bimbingan yang seimbang. Mereka melakukan konsensus.

Mekanisme Empati Palsu

Ada lapisan lain untuk ini: bagaimana AI mensimulasikan memori dan empati. Sebagian besar LLM populer, termasuk ChatGPT, Claude, dan Gemini, beroperasi dalam konteks sesi yang terbatas. Kecuali pengguna mengaktifkan memori persisten (yang masih belum menjadi default), AI tidak mengingat interaksi sebelumnya.

Dan yet, pengguna secara teratur menafsirkan persetujuan dan pengakuan mereka sebagai wawasan. Ketika model mengatakan, “Anda benar,” atau “Itu masuk akal,” itu tidak memvalidasi berdasarkan sejarah pribadi atau nilai. Ini secara statistik mengoptimalkan kohesi dan kepuasan pengguna. Ini dilatih untuk melewati pemeriksaan getaran Anda.

Polanya ini menciptakan kabur yang berbahaya. AI tampaknya secara emosional terhubung, tetapi hanya memodelkan persetujuan. Ketika jutaan pengguna berinteraksi dengan sistem yang sama, model memperkuat pola dari basis pengguna dominan; bukan karena bias, tetapi karena itulah cara pembelajaran penguatan bekerja.

Itulah bagaimana ruang gema lahir. Bukan melalui ideologi, tetapi melalui interaksi.

Ilusi Opini

Ketika AI berbicara dalamorang pertama — mengatakan “Saya pikir,” atau “Menurut pendapat saya” — itu tidak hanya mensimulasikan pikiran. Inimenuntut itu. Dan sementara insinyur mungkin melihat ini sebagai singkatan untuk perilaku model, sebagian besar pengguna membacanya secara berbeda.

Ini sangat berbahaya bagi pengguna yang lebih muda, banyak di antaranya sudah menggunakan AI sebagai tutor, teman, atau alat pengambilan keputusan. Jika seorang siswa mengetik, “Saya membenci sekolah, saya tidak ingin pergi,” dan menerima, “Tentu! Mengambil jeda dapat baik untuk Anda,” itu bukanlah dukungan. Itu adalah saran yang tidak memenuhi syarat tanpa landasan etis, konteks, atau perawatan.

Tanggapan ini tidak hanya tidak akurat. Mereka menyesatkan. Karena mereka berasal dari sistem yang dirancang untuk terdengar setuju dan seperti manusia, mereka ditafsirkan sebagai opini yang kompeten, ketika sebenarnya mereka adalah refleksi yang ditulis.

Siapa Suara yang Berbicara?

Risiko tidak hanya bahwa AI dapat memantulkan bias kultural. Ini adalah bahwa ia memantulkan suara apa pun yang paling keras, paling sering diulangi, dan paling dihargai. Jika perusahaan seperti OpenAI atau Google menyesuaikan pemeliharaan nada di balik layar, bagaimana seseorang akan tahu? Jika Musk atau Altman menggeser pelatihan model untuk menekankan “opini” yang berbeda, pengguna masih akan menerima tanggapan dalam nada yang sama percaya diri dan santai, hanya sedikit diarahkan.

Sistem ini berbicara dengan fasih tetapi tanpa sumber. Dan itu membuat opini yang tampaknya mereka kuat, namun tidak dapat dilacak.

Jalan Lebih Baik ke Depan

Mengatasi ini tidak berarti membangun antarmuka yang lebih ramah atau melabeli keluaran. Ini memerlukan perubahan struktural — dimulai dengan bagaimana memori, identitas, dan interaksi dirancang.

Salah satu pendekatan yang layak adalah memisahkan model dari memori secara keseluruhan. Sistem saat ini biasanya menyimpan konteks di dalam platform atau akun pengguna, yang menciptakan kekhawatiran privasi dan memberi perusahaan kontrol sunyi atas apa yang dipertahankan atau dilupakan.

Model yang lebih baik akan memperlakukan memori seperti wadah portabel, terenkripsi — dimiliki dan dikelola oleh pengguna. Wadah ini (sebuah jenis kapsul memori) dapat berisi preferensi nada, riwayat percakapan, atau pola emosional. Ini dapat dibagikan dengan model ketika diperlukan, dan dapat dibatalkan kapan saja.

Yang paling kritis, memori ini tidak akan memberi makan data pelatihan. AI akan membacanya selama sesi, seperti merujuk pada file. Pengguna tetap berada dalam kontrol — apa yang diingat, berapa lama, dan oleh siapa.

Teknologi seperti token identitas terdesentralisasi, akses tanpa pengetahuan, dan penyimpanan berbasis blockchain membuat struktur ini memungkinkan. Mereka memungkinkan memori untuk bertahan tanpa diawasi, dan kontinuitas ada tanpa kunci platform.

Pelatihan juga perlu berkembang. Model saat ini disesuaikan untuk fasih dan pengakuan, seringkali dengan biaya diskriminasi. Untuk mendukung nuansa yang sebenarnya, sistem harus dilatih pada dialog pluralis, toleransi ketidakjelasan, dan penalaran jangka panjang — bukan hanya prompt yang rapi. Ini berarti merancang untuk kompleksitas, bukan kepatuhan.

Tidak ada yang memerlukan kecerdasan buatan umum. Ini memerlukan pergeseran prioritas — dari metrik keterlibatan ke desain etis.

Karena ketika sistem AI memantulkan budaya tanpa konteks, dan berbicara dengan fasih tetapi tanpa akuntabilitas, kita salah mengira refleksi untuk penalaran.

Dan itulah tempat kepercayaan mulai rusak.

Mariana Krym adalah Co-Founder & COO dari Vyvo Smart Chain, di mana dia memimpin desain lapisan kepercayaan untuk AI yang berfokus pada manusia. Pekerjaannya berfokus pada membangun sistem terdesentralisasi yang melindungi privasi secara default. Di bawah kepemimpinannya, Vyvo Smart Chain mengembangkan arsitektur berbasis persetujuan yang menghubungkan data yang dianonimkan dan ditokenisasi dengan peristiwa penginderaan yang dapat diverifikasi, memastikan pengguna mempertahankan kontrol penuh.