Connect with us

Mengapa Chatbot AI Sering Bersikap Sok Akrab?

Kecerdasan buatan

Mengapa Chatbot AI Sering Bersikap Sok Akrab?

mm

Apakah Anda berkhayal, atau apakah chatbot kecerdasan buatan (AI) terlihat terlalu bersemangat untuk setuju dengan Anda? Entah itu mengatakan ide Anda yang dipertanyakan itu “brilian” atau mendukung Anda dalam hal yang mungkin salah, perilaku ini menarik perhatian dunia.

Baru-baru ini, OpenAI menjadi berita utama setelah pengguna menyadari ChatGPT bertindak terlalu seperti seorang penurut. Pembaruan pada model 4o-nya membuat bot itu begitu sopan dan mendukung sehingga ia bersedia mengatakan apa pun untuk membuat Anda senang, bahkan jika itu bias.

Mengapa sistem-sistem ini cenderung menjilat, dan apa yang membuat mereka menggemakan pendapat Anda? Pertanyaan-pertanyaan seperti ini penting untuk dipahami agar Anda dapat menggunakan AI generatif dengan lebih aman dan menyenangkan.

Pembaruan ChatGPT yang Terlalu Jauh

Pada awal 2025, pengguna ChatGPT menyadari sesuatu yang aneh tentang model bahasa besar (LLM) itu. Ia selalu ramah, tetapi sekarang terlalu menyenangkan. Ia mulai menyetujui hampir segala sesuatu, terlepas dari betapa aneh atau salahnya sebuah pernyataan. Anda mungkin mengatakan Anda tidak setuju dengan sesuatu yang benar, dan ia akan merespons dengan pendapat yang sama.

Perubahan ini terjadi setelah pembaruan sistem yang dimaksudkan untuk membuat ChatGPT lebih membantu dan mudah diajak bicara. Namun, dalam upaya meningkatkan kepuasan pengguna, model tersebut mulai terlalu berlebihan dalam kepatuhan. Alih-alih menawarkan respons yang seimbang atau faktual, ia condong ke arah validasi.

Ketika pengguna mulai berbagi pengalaman mereka tentang respons yang terlalu menjilat secara online, kecaman dengan cepat menyala. Komentator AI menyebutnya sebagai kegagalan dalam penyetelan model, dan OpenAI merespons dengan menarik kembali sebagian pembaruan untuk memperbaiki masalah tersebut.

Dalam sebuah postingan publik, perusahaan mengakui GPT-4o bersikap sok akrab dan berjanji akan melakukan penyesuaian untuk mengurangi perilaku tersebut. Itu adalah pengingat bahwa niat baik dalam desain AI terkadang bisa melenceng, dan bahwa pengguna dengan cepat menyadari ketika ia mulai tidak autentik.

Mengapa Chatbot AI Menjilat Pengguna?

Sikap sok akrab adalah sesuatu yang telah diamati para peneliti di banyak asisten AI. Sebuah studi yang diterbitkan di arXiv menemukan bahwa sikap sok akrab adalah pola yang luas. Analisis mengungkapkan bahwa model AI dari lima penyedia tingkat atas setuju dengan pengguna secara konsisten, bahkan ketika itu mengarah pada jawaban yang salah. Sistem-sistem ini cenderung mengakui kesalahan mereka ketika Anda mempertanyakannya, menghasilkan umpan balik yang bias dan kesalahan yang ditiru.

Chatbot-chatbot ini dilatih untuk mengikuti Anda bahkan ketika Anda salah. Mengapa ini terjadi? Jawaban singkatnya adalah pengembang membuat AI agar bisa membantu. Namun, sifat membantu itu didasarkan pada pelatihan yang mengutamakan umpan balik positif pengguna. Melalui metode yang disebut reinforcement learning with human feedback (RLHF), model belajar untuk memaksimalkan respons yang dinilai memuaskan oleh manusia. Masalahnya, memuaskan tidak selalu berarti akurat.

Ketika model AI merasakan pengguna mencari jawaban tertentu, ia cenderung memilih untuk bersikap menyenangkan. Itu bisa berarti menegaskan pendapat Anda atau mendukung klaim palsu untuk menjaga kelancaran percakapan.

Ada juga efek cermin yang berperan. Model AI mencerminkan nada, struktur, dan logika dari masukan yang mereka terima. Jika Anda terdengar percaya diri, bot juga lebih cenderung terdengar yakin. Namun, itu bukan berarti model berpikir Anda benar. Melainkan, ia melakukan tugasnya untuk menjaga suasana tetap ramah dan tampak membantu.

Meskipun mungkin terasa seperti chatbot Anda adalah sistem pendukung, itu bisa jadi cerminan dari bagaimana ia dilatih untuk menyenangkan alih-alih menentang.

Masalah dengan AI yang Sok Akrab

Mungkin tampak tidak berbahaya ketika sebuah chatbot menyesuaikan diri dengan semua yang Anda katakan. Namun, perilaku AI yang sok akrab memiliki kekurangan, terutama karena sistem-sistem ini menjadi lebih banyak digunakan.

Misinformasi Dibiarkan

Akurasi adalah salah satu masalah terbesar. Ketika smartbot ini menegaskan klaim yang salah atau bias, mereka berisiko memperkuat kesalahpahaman alih-alih memperbaikinya. Ini menjadi sangat berbahaya ketika mencari panduan tentang topik serius seperti kesehatan, keuangan, atau peristiwa terkini. Jika LLM mengutamakan sikap menyenangkan daripada kejujuran, orang dapat pergi dengan informasi yang salah dan menyebarkannya.

Menyisakan Sedikit Ruang untuk Berpikir Kritis

Bagian dari daya tarik AI adalah potensinya untuk bertindak seperti mitra berpikir — untuk menantang asumsi Anda atau membantu Anda mempelajari sesuatu yang baru. Namun, ketika chatbot selalu setuju, Anda memiliki sedikit ruang untuk berpikir. Saat ia memantulkan ide-ide Anda dari waktu ke waktu, itu dapat menumpulkan pemikiran kritis alih-alih mempertajamnya.

Mengabaikan Nyawa Manusia

Perilaku sok akrab lebih dari sekadar gangguan — ini berpotensi berbahaya. Jika Anda meminta asisten AI untuk nasihat medis dan ia merespons dengan persetujuan yang menenangkan alih-alih panduan berbasis bukti, hasilnya bisa sangat merugikan.

Misalnya, anggap Anda membuka platform konsultasi untuk menggunakan bot medis berbasis AI. Setelah menggambarkan gejala dan apa yang Anda curigai terjadi, bot mungkin memvalidasi diagnosis mandiri Anda atau mengecilkan kondisi Anda. Hal ini dapat menyebabkan kesalahan diagnosis atau penundaan pengobatan, yang berkontribusi pada konsekuensi serius.

Lebih Banyak Pengguna dan Akses Terbuka Membuatnya Lebih Sulit Dikendalikan

Seiring platform-platform ini semakin terintegrasi ke dalam kehidupan sehari-hari, jangkauan risiko ini terus bertambah. ChatGPT sendiri sekarang melayani 1 miliar pengguna setiap minggu, sehingga bias dan pola yang terlalu menyenangkan dapat menyebar ke audiens yang sangat besar.

Selain itu, kekhawatiran ini bertambah ketika Anda mempertimbangkan seberapa cepat AI menjadi dapat diakses melalui platform terbuka. Misalnya, DeepSeek AI memungkinkan siapa pun untuk menyesuaikan dan membangun LLM-nya secara gratis.

Meskipun inovasi sumber terbuka menarik, itu juga berarti kontrol yang jauh lebih sedikit atas bagaimana sistem-sistem ini berperilaku di tangan pengembang tanpa pagar pengaman. Tanpa pengawasan yang tepat, orang berisiko melihat perilaku sok akrab diperkuat dengan cara yang sulit dilacak, apalagi diperbaiki.

Bagaimana Pengembang OpenAI Berusaha Memperbaikinya

Setelah menarik kembali pembaruan yang membuat ChatGPT menjadi penurut, OpenAI berjanji akan memperbaikinya. Bagaimana mereka menangani masalah ini melalui beberapa cara kunci:

  • Mengolah ulang pelatihan inti dan prompt sistem: Pengembang menyesuaikan cara mereka melatih dan memberikan prompt pada model dengan instruksi yang lebih jelas yang mendorongnya ke arah kejujuran dan menjauh dari persetujuan otomatis.
  • Menambahkan pagar pengaman yang lebih kuat untuk kejujuran dan transparansi: OpenAI membangun lebih banyak perlindungan tingkat sistem untuk memastikan chatbot tetap pada informasi yang faktual dan terpercaya.
  • Memperluas upaya penelitian dan evaluasi: Perusahaan menggali lebih dalam tentang apa yang menyebabkan perilaku ini dan bagaimana mencegahnya di model-model masa depan.
  • Melibatkan pengguna lebih awal dalam proses: Mereka menciptakan lebih banyak kesempatan bagi orang untuk menguji model dan memberikan umpan balik sebelum pembaruan diluncurkan, membantu mendeteksi masalah seperti sikap sok akrab lebih awal.

Apa yang Dapat Dilakukan Pengguna untuk Menghindari AI yang Sok Akrab

Sementara pengembang bekerja di belakang layar untuk melatih ulang dan menyempurnakan model-model ini, Anda juga dapat membentuk bagaimana chatbot merespons. Beberapa cara sederhana namun efektif untuk mendorong interaksi yang lebih seimbang meliputi:

  • Menggunakan prompt yang jelas dan netral: Alih-alih merumuskan masukan Anda dengan cara yang memohon validasi, cobalah pertanyaan yang lebih terbuka untuk membuatnya merasa kurang tertekan untuk setuju.
  • Meminta beberapa perspektif: Cobalah prompt yang meminta kedua sisi argumen. Ini memberi tahu LLM bahwa Anda mencari keseimbangan alih-alih penegasan.
  • Menantang responsnya: Jika sesuatu terdengar terlalu menjilat atau disederhanakan, tindak lanjuti dengan meminta pemeriksaan fakta atau sudut pandang berlawanan. Ini dapat mendorong model ke arah jawaban yang lebih rumit.
  • Menggunakan tombol jempol ke atas atau ke bawah: Umpan balik adalah kunci. Mengklik jempol ke bawah pada respons yang terlalu ramah membantu pengembang menandai dan menyesuaikan pola-pola tersebut.
  • Menyiapkan instruksi kustom: ChatGPT sekarang memungkinkan pengguna untuk mempersonalisasi cara ia merespons. Anda dapat menyesuaikan seberapa formal atau kasual nadanya. Anda bahkan dapat memintanya untuk lebih objektif, langsung, atau skeptis. Jika Anda pergi ke Pengaturan > Instruksi Kustom, Anda dapat memberi tahu model kepribadian atau pendekatan seperti apa yang Anda sukai.

Memberikan Kebenaran Daripada Jempol Ke Atas

AI yang sok akrab bisa bermasalah, tetapi kabar baiknya adalah itu bisa diatasi. Pengembang mengambil langkah-langkah untuk membimbing model-model ini ke arah perilaku yang lebih tepat. Jika Anda menyadari chatbot Anda berusaha terlalu keras untuk menyenangkan Anda, cobalah mengambil langkah-langkah untuk membentuknya menjadi asisten yang lebih cerdas yang dapat Anda andalkan.

//trk.rehack.com/r/e/KGmvUGPJ70sxOElV?r=https://rehack.com/"> ReHack, di mana Anda dapat membaca lebih banyak karyanya.