Connect with us

Pemimpin pemikiran

Menghentikan AI dari Membuat Cerita: Panduan untuk Mencegah Halusinasi

mm

AI sedang merevolusi cara hampir setiap industri beroperasi. Ini membuat kita lebih efisien, lebih produktif, dan – ketika diimplementasikan dengan benar – lebih baik dalam pekerjaan kita secara keseluruhan. Namun, ketika ketergantungan kita pada teknologi baru ini meningkat dengan cepat, kita harus mengingatkan diri kita sendiri tentang satu fakta sederhana: AI tidak sempurna. Keluaran AI tidak boleh diambil begitu saja karena, sama seperti manusia, AI dapat membuat kesalahan.

Kita menyebut kesalahan-kesalahan ini “halusinasi AI.” Kesalahan-kesalahan seperti itu berkisar dari menjawab masalah matematika dengan tidak benar hingga memberikan informasi yang tidak akurat tentang kebijakan pemerintah. Di industri yang sangat diatur, halusinasi dapat menyebabkan denda yang mahal dan masalah hukum, tidak hanya pelanggan yang tidak puas.

Frekuensi halusinasi AI seharusnya menjadi alasan untuk khawatir: diperkirakan bahwa model bahasa besar modern (LLM) mengalami halusinasi antara 1% hingga 30% dari waktu. Ini menghasilkan ratusan jawaban palsu yang dihasilkan setiap hari, yang berarti bisnis yang ingin memanfaatkan teknologi ini harus sangat selektif saat memilih alat yang akan diimplementasikan.

Mari kita jelajahi mengapa halusinasi AI terjadi, apa yang dipertaruhkan, dan bagaimana kita dapat mengidentifikasi dan memperbaikinya.

Garbage in, garbage out

Apakah Anda ingat bermain permainan “telepon” saat masih anak-anak? Bagaimana kalimat awal akan berubah saat disampaikan dari pemain ke pemain, menghasilkan pernyataan yang sama sekali berbeda pada saat kalimat itu mencapai akhir lingkaran?

Cara AI belajar dari inputnya mirip dengan itu. Respon yang dihasilkan LLM hanya sebaik informasi yang diberikan, yang berarti konteks yang tidak benar dapat menyebabkan pembuatan dan penyebaran informasi palsu. Jika sistem AI dibangun pada data yang tidak akurat, ketinggalan zaman, atau bias, maka keluarannya akan mencerminkan hal itu.

Dengan demikian, LLM hanya sebaik inputnya, terutama ketika tidak ada intervensi atau pengawasan manusia. Saat solusi AI yang lebih otonom berkembang, sangat penting bahwa kita memberikan alat dengan konteks data yang benar untuk menghindari menyebabkan halusinasi. Kita membutuhkan pelatihan data yang ketat, dan/atau kemampuan untuk memandu LLM sehingga mereka hanya merespons dari konteks yang diberikan, bukan menarik informasi dari mana saja di internet.

Mengapa halusinasi penting?

Untuk bisnis yang berhadapan dengan pelanggan, akurasi adalah segalanya. Jika karyawan mengandalkan AI untuk tugas seperti mensintesis data pelanggan atau menjawab pertanyaan pelanggan, mereka perlu mempercayai bahwa respon yang dihasilkan oleh alat tersebut akurat.

Jika tidak, bisnis berisiko mengalami kerusakan pada reputasi dan loyalitas pelanggan. Jika pelanggan diberikan jawaban yang tidak memadai atau palsu oleh chatbot, atau jika mereka ditinggalkan menunggu sementara karyawan memeriksa keluaran chatbot, mereka mungkin membawa bisnis mereka ke tempat lain. Orang tidak boleh khawatir tentang apakah bisnis yang mereka hubungi memberikan informasi palsu – mereka ingin dukungan yang cepat dan dapat diandalkan, yang berarti mendapatkan interaksi ini dengan benar adalah sangat penting.

Pemimpin bisnis harus melakukan tugas mereka dengan baik saat memilih alat AI yang tepat untuk karyawan mereka. AI seharusnya membebaskan waktu dan energi untuk staf untuk fokus pada tugas yang lebih berharga; berinvestasi pada chatbot yang memerlukan pengawasan manusia yang konstan mengalahkan tujuan adopsi. Namun, apakah keberadaan halusinasi benar-benar sangat menonjol atau apakah istilah tersebut hanya digunakan berlebihan untuk mengidentifikasi dengan jawaban yang kita anggap tidak benar?

Mengatasi halusinasi AI

Pertimbangkan: Teori Makna Dinamis (DMT), konsep bahwa pemahaman antara dua orang – dalam hal ini pengguna dan AI – sedang dipertukarkan. Namun, keterbatasan bahasa dan pengetahuan tentang subjek menyebabkan kesalahan dalam interpretasi respon.

Dalam kasus respon yang dihasilkan AI, memungkinkan bahwa algoritma yang mendasarinya belum sepenuhnya dilengkapi untuk menginterpretasikan atau menghasilkan teks dengan cara yang sesuai dengan harapan kita sebagai manusia. Kesenjangan ini dapat menyebabkan respon yang mungkin tampak akurat pada permukaan tetapi pada akhirnya kekurangan kedalaman atau nuansa yang diperlukan untuk pemahaman yang sebenarnya.

Selain itu, sebagian besar LLM umum hanya menarik informasi dari konten yang tersedia secara publik di internet. Aplikasi perusahaan AI berfungsi lebih baik ketika mereka diberitahu oleh data dan kebijakan yang spesifik untuk industri dan bisnis individu. Model juga dapat ditingkatkan dengan umpan balik manusia langsung – terutama solusi yang dirancang untuk merespons nada dan sintaks.

Alat seperti itu juga harus diuji dengan ketat sebelum menjadi menghadap konsumen. Ini adalah bagian penting dari mencegah halusinasi AI. Seluruh aliran harus diuji menggunakan percakapan berbasis giliran dengan LLM memainkan peran sebagai persona. Ini memungkinkan bisnis untuk lebih baik mengasumsikan keberhasilan umum percakapan dengan model AI sebelum merilisnya ke dunia.

Sangat penting bagi pengembang dan pengguna teknologi AI untuk tetap menyadari teori makna dinamis dalam respon yang mereka terima, serta dinamika bahasa yang digunakan dalam input. Ingat, konteks adalah kunci. Dan, sebagai manusia, sebagian besar konteks kita dipahami melalui cara yang tidak terkatakan, apakah itu melalui bahasa tubuh, tren sosial – bahkan nada kita. Sebagai manusia, kita memiliki potensi untuk mengalami halusinasi sebagai respons terhadap pertanyaan. Namun, dalam iterasi AI saat ini, pemahaman manusia-ke-manusia tidak dengan mudah dikontekstualisasikan, sehingga kita perlu lebih kritis terhadap konteks yang kita berikan dalam penulisan.

Cukuplah dikatakan – tidak semua model AI diciptakan sama. Ketika teknologi berkembang untuk menyelesaikan tugas yang semakin kompleks, sangat penting bagi bisnis yang mempertimbangkan implementasi untuk mengidentifikasi alat yang akan meningkatkan interaksi dan pengalaman pelanggan daripada menguranginya.

Beban tidak hanya pada penyedia solusi untuk memastikan mereka telah melakukan semua yang mereka bisa untuk meminimalkan kemungkinan halusinasi terjadi. Pembeli potensial juga memiliki peran mereka untuk dimainkan. Dengan memprioritaskan solusi yang dilatih dan diuji dengan ketat dan dapat belajar dari data propietary (bukan dari apa saja di internet), bisnis dapat membuat yang terbaik dari investasi AI mereka untuk menyiapkan karyawan dan pelanggan untuk sukses.

Dan Balaceanu, Chief Product Officer at DRUID AI, memiliki pengalaman dalam mengelola departemen pengembangan dan proses di dalam organisasi perusahaan. Ia adalah seorang Solutions Architect dan Technical Project Manager yang sangat terampil dengan lebih dari 15 tahun pengalaman memimpin proyek pengembangan dan implementasi ukuran menengah, dengan pengumpulan kebutuhan pelanggan, analisis sistem, pengembangan aplikasi dan pengujian, dalam tim yang berfokus pada pelanggan.