Connect with us

Pemimpin pemikiran

Jika AI Anda Mengalami Halusinasi, Jangan Salahkan AI

mm

“Halusinasi” AI – jawaban yang terdengar meyakinkan tetapi palsu – menarik banyak perhatian media, seperti artikel New York Times baru-baru ini, AI Is Getting More Powerful, But Its Hallucinations Are Getting Worse. Halusinasi adalah bahaya nyata ketika Anda berhadapan dengan chatbot konsumen. Dalam konteks aplikasi bisnis AI, ini adalah kekhawatiran yang lebih serius. Untungnya, sebagai pemimpin teknologi bisnis, saya memiliki lebih banyak kendali atasnya. Saya dapat memastikan agen memiliki data yang tepat untuk menghasilkan jawaban yang bermakna.

Karena itu adalah masalah nyata. Dalam bisnis, tidak ada alasan untuk halusinasi AI. Berhentilah menyalahkan AI. Salahkan diri Anda sendiri karena tidak menggunakan AI dengan benar.

Ketika generative AI tools mengalami halusinasi, mereka melakukan apa yang mereka desain untuk dilakukan – memberikan jawaban terbaik yang mereka bisa berdasarkan data yang tersedia. Ketika mereka membuat sesuatu, menghasilkan jawaban yang tidak berdasar pada kenyataan, itu karena mereka kekurangan data yang relevan, tidak dapat menemukannya, atau tidak memahami pertanyaan. Ya, model baru seperti OpenAI’s o3 dan o4-mini mengalami halusinasi lebih, bertindak lebih “kreatif” ketika mereka tidak memiliki jawaban yang baik untuk pertanyaan yang diajukan kepada mereka. Ya, alat yang lebih kuat dapat mengalami halusinasi lebih – tetapi mereka juga dapat menghasilkan hasil yang lebih kuat dan berharga jika kita mengatur mereka untuk sukses.

Jika Anda tidak ingin AI Anda mengalami halusinasi, jangan biarkan mereka kekurangan data. Berikan AI data terbaik dan paling relevan untuk masalah yang ingin Anda pecahkan, dan mereka tidak akan tergoda untuk menyimpang.

Bahkan kemudian, ketika bekerja dengan alat AI apa pun, saya sarankan untuk menjaga kemampuan berpikir kritis Anda. Hasil yang diberikan oleh agen AI dapat produktif dan menyenangkan, tetapi titiknya bukanlah untuk mematikan otak Anda dan membiarkan perangkat lunak melakukan semua pemikiran untuk Anda. Teruslah bertanya. Ketika agen AI memberikan jawaban, tanyakan jawaban itu untuk memastikan itu masuk akal dan didukung oleh data. Jika demikian, itu seharusnya menjadi tanda yang menggembirakan bahwa itu layak untuk Anda tanyakan pertanyaan lebih lanjut.

Semakin banyak Anda bertanya, semakin baik wawasan yang Anda dapatkan.

Mengapa halusinasi terjadi

Itu tidaklah misterius. AI tidak mencoba berbohong kepada Anda. Setiap large language model (LLM) AI pada dasarnya memprediksi kata atau angka berikutnya berdasarkan probabilitas.

Pada tingkat yang tinggi, apa yang terjadi di sini adalah bahwa LLMs menyusun kalimat dan paragraf satu kata pada satu waktu, memprediksi kata berikutnya yang seharusnya terjadi dalam kalimat berdasarkan miliaran contoh lain dalam data pelatihannya. Leluhur LLMs (selain Clippy) adalah prompt otomatis untuk pesan teks dan kode komputer, alat terjemahan bahasa manusia otomatis, dan sistem linguistik probabilistik lainnya. Dengan peningkatan kekuatan komputasi brute, plus pelatihan pada volume data skala internet, sistem ini menjadi “pintar” enough sehingga mereka dapat melakukan percakapan penuh melalui obrolan, seperti yang dipelajari dunia dengan pengenalan ChatGPT.

Pengkritik AI suka menunjukkan bahwa ini tidak sama dengan kecerdasan “nyata”, hanya perangkat lunak yang dapat menyuling dan mengeluarkan kecerdasan manusia yang telah diberikan ke dalamnya. Tanyakan untuk merangkum data dalam laporan tertulis, dan itu meniru cara penulis lain merangkum data serupa.

Itu tampaknya seperti argumen akademis selama data benar dan analisisnya berguna.

Apa yang terjadi jika AI tidak memiliki data? Itu mengisi celah. Terkadang itu lucu. Terkadang itu benar-benar berantakan.

Ketika membangun agen AI, ini adalah risiko 10x. Agen seharusnya memberikan wawasan yang dapat digunakan, tetapi mereka membuat lebih banyak keputusan di sepanjang jalan. Mereka melaksanakan tugas multi-langkah, di mana hasil langkah 1 mempengaruhi langkah 2, 3, 4, 5, … 10 … 20. Jika hasil langkah 1 salah, kesalahan akan diperkuat, membuat output pada langkah 20 itu menjadi lebih buruk. Terutama, karena agen dapat membuat keputusan dan melewati langkah.

Dilakukan dengan benar, agen mencapai lebih banyak untuk bisnis yang menggunakannya. Namun, sebagai manajer produk AI, kita harus mengakui risiko yang lebih besar yang terkait dengan hadiah yang lebih besar.

Yang mana tim kami lakukan. Kami melihat risiko, dan menanganinya. Kami tidak hanya membangun robot yang mewah; kami memastikan itu berjalan pada data yang tepat. Berikut adalah apa yang saya pikir kami lakukan dengan benar:

  • Build agen untuk bertanya pertanyaan yang tepat dan verifikasi bahwa itu memiliki data yang tepat. Pastikan proses input data awal agen sebenarnya lebih deterministik, kurang “kreatif”. Anda ingin agen mengatakan ketika tidak memiliki data yang tepat dan tidak melanjutkan ke langkah berikutnya, bukan membuat data.
  • Strukturkan playbook untuk agen Anda – pastikan itu tidak mengarang rencana baru setiap kali tetapi memiliki pendekatan semi-terstruktur. Struktur dan konteks sangat penting pada tahap pengumpulan dan analisis data. Anda dapat membiarkan agen menjadi lebih “kreatif” ketika memiliki fakta dan siap untuk menulis ringkasan, tetapi pertama-tama dapatkan fakta yang benar.
  • Build alat berkualitas tinggi untuk mengekstrak data. Ini harus lebih dari sekadar panggilan API. Ambil waktu untuk menulis kode (orang masih melakukannya) yang membuat kuantitas dan variasi data yang akan dikumpulkan, membangun pemeriksaan kualitas ke dalam proses.
  • Buat agen menunjukkan pekerjaannya. Agen harus mengutip sumber dan menautkan ke tempat pengguna dapat memverifikasi data, dari sumber asli, dan menjelajahinya lebih lanjut. Tidak ada kecurangan yang diizinkan!
  • Guardrails: Pikirkan apa yang bisa salah, dan bangun perlindungan terhadap kesalahan yang tidak dapat Anda izinkan. Dalam kasus kami, itu berarti bahwa ketika agen yang ditugaskan untuk menganalisis pasar tidak memiliki data – yang mana saya maksudkan data Similarweb kami, bukan sumber data acak yang ditarik dari web – memastikan itu tidak membuat sesuatu adalah perlindungan yang penting. Lebih baik agen tidak dapat menjawab daripada memberikan jawaban yang salah atau menyesatkan.

Kami telah mengintegrasikan prinsip-prinsip ini ke dalam rilis terbaru dari tiga agen baru kami, dengan lebih banyak yang akan mengikuti. Misalnya, AI Meeting Prep Agent kami untuk salespeople tidak hanya meminta nama perusahaan target tetapi detail tentang tujuan pertemuan dan siapa yang hadir, mempersiapkannya untuk memberikan jawaban yang lebih baik. Ini tidak perlu menebak karena itu menggunakan kekayaan data perusahaan, data digital, dan profil eksekutif untuk mempengaruhi rekomendasinya.

Apakah agen kami sempurna? Tidak. Tidak ada yang menciptakan AI yang sempurna, bahkan perusahaan terbesar di dunia. Tetapi menghadapi masalah itu jauh lebih baik daripada mengabaikannya.

Ingin lebih sedikit halusinasi? Berikan AI Anda sepotong data berkualitas tinggi.

Jika itu mengalami halusinasi, mungkin itu bukan AI yang perlu diperbaiki. Mungkin itu adalah pendekatan Anda untuk mengambil keuntungan dari kemampuan baru yang kuat ini tanpa memasukkan waktu dan upaya untuk mendapatkannya dengan benar.

Omri Shtayer adalah Wakil Presiden Data Produk dan DaaS di Similarweb, di mana ia memimpin inovasi di seluruh organisasi dan mengarahkan pertumbuhan bisnis data mereka. Ia baru-baru ini memimpin peluncuran AI Agents—alat pintar yang dapat diskalakan, dirancang untuk membantu bisnis menerjemahkan data menjadi hasil dunia nyata. Dengan catatan kinerja membangun solusi data yang berdampak, Omri berada di garis depan transformasi bagaimana perusahaan memanfaatkan kecerdasan digital.