Terhubung dengan kami

Pemimpin Pikiran

Jika AI Anda Berhalusinasi, Jangan Salahkan AI-nya

mm

“Halusinasi” AI – jawaban yang terdengar meyakinkan namun salah – menarik banyak perhatian media, seperti artikel New York Times baru-baru ini, AI Semakin Kuat, Namun Halusinasinya Semakin BurukHalusinasi adalah bahaya nyata saat Anda berhadapan dengan chatbot konsumen. Dalam konteks aplikasi bisnis AI, ini adalah masalah yang lebih serius. Untungnya, sebagai pemimpin teknologi bisnis, saya juga memiliki kendali lebih besar atas hal itu. Saya dapat memastikan agen memiliki data yang tepat untuk menghasilkan jawaban yang bermakna.

Karena itulah masalah sebenarnya. Dalam bisnis, tidak ada alasan untuk halusinasi AIBerhentilah menyalahkan AI. Salahkan diri Anda sendiri karena tidak menggunakan AI dengan benar.

Ketika AI generatif alat berhalusinasi, mereka melakukan apa yang seharusnya mereka lakukan – memberikan jawaban terbaik yang mereka bisa berdasarkan data yang mereka miliki. Ketika mereka mengarang sesuatu, menghasilkan jawaban yang tidak berdasarkan kenyataan, itu karena mereka kehilangan data yang relevan, tidak dapat menemukannya, atau tidak memahami pertanyaannyaYa, model baru seperti o3 dan o4-mini OpenAI lebih banyak berhalusinasi, bertindak lebih "kreatif" saat tidak memiliki jawaban yang tepat untuk pertanyaan yang diajukan kepada mereka. Ya, alat yang lebih canggih dapat lebih banyak berhalusinasi – tetapi alat tersebut juga dapat menghasilkan hasil yang lebih hebat dan berharga jika kita menyiapkannya untuk meraih keberhasilan.

Jika Anda tidak ingin AI Anda berhalusinasi, jangan biarkan ia kekurangan data. Berikan AI data terbaik dan paling relevan untuk masalah yang ingin Anda selesaikan, dan ia tidak akan tergoda untuk tersesat.

Bahkan saat bekerja dengan alat AI apa pun, saya sarankan untuk tetap menjaga keterampilan berpikir kritis Anda. Hasil yang diberikan agen AI bisa produktif dan menyenangkan, tetapi intinya bukanlah mencabut otak Anda dan membiarkan perangkat lunak melakukan semua pemikiran untuk Anda. Teruslah bertanya. Saat agen AI memberi Anda jawaban, pertanyakan jawaban itu untuk memastikannya masuk akal dan didukung oleh data. Jika demikian, itu seharusnya menjadi tanda yang menggembirakan bahwa Anda perlu meluangkan waktu untuk mengajukan pertanyaan lanjutan.

Semakin banyak Anda bertanya, semakin baik wawasan yang akan Anda dapatkan.

Mengapa halusinasi terjadi

Ini bukan misteri. AI tidak mencoba berbohong kepada Anda. Setiap model bahasa besar (LLM) AI pada dasarnya memprediksi kata atau angka berikutnya berdasarkan probabilitas.

Secara umum, yang terjadi di sini adalah LLM merangkai kalimat dan paragraf satu kata dalam satu waktu, memprediksi kata berikutnya yang akan muncul dalam kalimat tersebut berdasarkan miliaran contoh lain dalam data pelatihannya. Nenek moyang LLM (selain Clippy) adalah perintah pelengkapan otomatis untuk pesan teks dan kode komputer, alat penerjemahan bahasa manusia otomatis, dan sistem linguistik probabilistik lainnya. Dengan peningkatan daya komputasi brute force, ditambah pelatihan pada volume data berskala internet, sistem ini menjadi cukup "cerdas" sehingga dapat melakukan percakapan penuh melalui obrolan, seperti yang dipelajari dunia dengan diperkenalkannya ChatGPT.

Para penentang AI suka menunjukkan bahwa ini tidak sama dengan "kecerdasan" yang sebenarnya, hanya perangkat lunak yang dapat menyaring dan memuntahkan kecerdasan manusia yang telah dimasukkan ke dalamnya. Minta perangkat lunak tersebut untuk meringkas data dalam laporan tertulis, dan perangkat lunak tersebut akan meniru cara penulis lain meringkas data serupa.

Bagi saya itu adalah argumen akademis asalkan datanya benar dan analisisnya bermanfaat.

Apa yang terjadi jika AI tidak memiliki data? AI akan mengisi kekosongan. Terkadang lucu. Terkadang kacau balau.

Saat membangun Agen AI, ini 10 kali lipat risikonya. Agen seharusnya memberikan wawasan yang dapat ditindaklanjuti, tetapi mereka membuat lebih banyak keputusan di sepanjang prosesnya. Mereka menjalankan tugas multi-langkah, di mana hasil langkah 1 menginformasikan langkah 2, 3, 4, 5, … 10 … 20. Jika hasil langkah 1 salah, kesalahan akan semakin parah, membuat hasil pada langkah 20 jauh lebih buruk. Terutama, karena agen dapat membuat keputusan dan melewatkan langkah.

Jika dilakukan dengan benar, agen akan mencapai hasil yang lebih baik bagi bisnis yang menggunakannya. Namun, sebagai manajer produk AI, kita harus menyadari risiko yang lebih besar yang menyertai imbalan yang lebih besar.

Itulah yang dilakukan tim kami. Kami melihat risikonya, dan mengatasinya. Kami tidak hanya membangun robot yang canggih; kami memastikannya berjalan dengan data yang tepat. Berikut ini yang menurut saya telah kami lakukan dengan benar:

  • Bangun agen untuk mengajukan pertanyaan yang tepat dan memverifikasi bahwa agen memiliki data yang tepat. Pastikan proses input data awal agen sebenarnya lebih deterministik, kurang "kreatif". Anda ingin agen mengatakan ketika tidak memiliki data yang tepat dan tidak melanjutkan ke langkah berikutnya, daripada mengarang data.
  • Susun buku pedoman untuk agen Anda – pastikan buku pedoman tersebut tidak selalu menciptakan rencana baru, tetapi memiliki pendekatan semi-terstruktur. Struktur dan konteks sangat penting pada tahap pengumpulan dan analisis data. Anda dapat membiarkan agen lebih santai dan bertindak lebih "kreatif" saat ia memiliki fakta dan siap menulis ringkasan, tetapi pertama-tama, pahami faktanya dengan benar.
  • Bangun alat berkualitas tinggi untuk mengekstrak data. Ini harus lebih dari sekadar panggilan API. Luangkan waktu untuk menulis kode (orang-orang masih melakukannya) yang menghasilkan jumlah dan variasi data yang tepat yang akan dikumpulkan, sertakan pemeriksaan kualitas dalam prosesnya.
  • Minta agen menunjukkan hasil kerjanya. Agen harus mengutip sumbernya dan menautkan ke tempat pengguna dapat memverifikasi data, dari sumber asli, dan menelitinya lebih lanjut. Tidak boleh ada kecurangan!
  • Pagar Pengaman: Pikirkan apa yang bisa salah, dan bangun perlindungan terhadap kesalahan yang sama sekali tidak boleh Anda biarkan. Dalam kasus kami, itu berarti bahwa ketika agen yang bertugas menganalisis pasar tidak memiliki data – yang saya maksud adalah data Similarweb kami, bukan sumber data acak yang diambil dari web – memastikannya tidak mengada-ada merupakan pagar pengaman yang penting. Lebih baik bagi agen untuk tidak dapat menjawab daripada memberikan jawaban yang salah atau menyesatkan.

Kami telah memasukkan prinsip-prinsip ini ke dalam rilis terbaru tiga agen baru kami, dan masih banyak lagi yang akan menyusul. Misalnya, Agen Persiapan Rapat AI kami untuk tenaga penjualan tidak hanya menanyakan nama perusahaan target, tetapi juga rincian tentang tujuan rapat dan dengan siapa rapat itu diadakan, sehingga dapat memberikan jawaban yang lebih baik. Agen ini tidak perlu menebak karena menggunakan banyak data perusahaan, data digital, dan profil eksekutif untuk menginformasikan rekomendasinya.

Apakah agen kita sempurna? Tidak. Belum ada yang menciptakan AI yang sempurna, bahkan perusahaan terbesar di dunia. Namun, menghadapi masalah jauh lebih baik daripada mengabaikannya.

Ingin lebih sedikit halusinasi? Berikan AI Anda sebagian besar data berkualitas tinggi.

Jika berhalusinasi, mungkin bukan AI yang perlu diperbaiki. Mungkin pendekatan Anda dalam memanfaatkan kemampuan baru yang hebat ini tanpa meluangkan waktu dan upaya untuk memperbaikinya.

Omri Shtayer adalah Wakil Presiden Produk Data dan DaaS di Similarweb, di mana ia memimpin inovasi di seluruh organisasi dan mendorong pertumbuhan bisnis datanya. Baru-baru ini, ia mempelopori peluncuran AI Agents—alat cerdas yang dapat diskalakan yang dirancang untuk membantu bisnis menerjemahkan data menjadi hasil nyata. Dengan rekam jejak membangun solusi data yang berdampak, Omri berada di garis depan dalam mengubah cara perusahaan memanfaatkan kecerdasan digital.