Terhubung dengan kami

Pemimpin Pikiran

Apakah RAG Solusi untuk Halusinasi AI?

mm

AI, secara desain, memiliki “pikirannya sendiri”. Salah satu kelemahannya adalah model AI Generatif terkadang memalsukan informasi dalam sebuah fenomena yang disebut “Halusinasi AI”, salah satu contoh paling awal yang menjadi sorotan ketika seorang hakim di New York ditegur pengacara karena menggunakan ringkasan hukum yang ditulis ChatGPT yang merujuk pada kasus pengadilan yang tidak ada. Baru-baru ini, ada insiden mesin pencari yang dibuat oleh AI meminta pengguna untuk melakukan hal tersebut mengkonsumsi batu untuk manfaat kesehatan, atau menggunakan yang tidak beracun lem untuk membantu keju menempel pada pizza.

Seiring dengan semakin banyaknya GenAI yang ada di mana-mana, penting bagi pengadopsinya untuk menyadari bahwa halusinasi, hingga saat ini, merupakan sebuah fenomena yang tidak dapat dielakkan. Tak terelakkan aspek solusi GenAI. Dibangun berdasarkan model bahasa besar (LLM), solusi-solusi ini sering kali diperoleh dari sejumlah besar sumber berbeda yang kemungkinan berisi setidaknya beberapa informasi yang tidak akurat atau ketinggalan jaman – jawaban-jawaban yang dibuat-buat ini merupakan antara 3% dan 10% respons yang dihasilkan chatbot AI terhadap permintaan pengguna. Mengingat AI “kotak hitam” alam – di mana sebagai manusia, kita mengalami kesulitan luar biasa dalam memeriksa dengan tepat bagaimana AI menghasilkan hasilnya, – halusinasi ini hampir mustahil untuk dilacak dan dipahami oleh pengembang.

Tak terhindarkan atau tidak, halusinasi AI paling membuat frustrasi, berbahaya, dan paling buruk tidak etis.

Di berbagai sektor, termasuk layanan kesehatan, keuangan, dan keselamatan publik, dampak halusinasi mencakup segala hal mulai dari penyebaran informasi yang salah dan membahayakan data sensitif hingga kecelakaan yang mengancam jiwa. Jika halusinasi terus dibiarkan, kesejahteraan pengguna dan kepercayaan masyarakat terhadap sistem AI akan terganggu.

Oleh karena itu, sangat penting bagi pengelola teknologi canggih ini untuk mengenali dan mengatasi risiko halusinasi AI untuk memastikan kredibilitas keluaran yang dihasilkan LLM.

RAGs sebagai Titik Awal Pemecahan Halusinasi

Salah satu metode yang mengemuka dalam mengurangi halusinasi adalah generasi yang ditambah pengambilan, atau RAG. Solusi ini meningkatkan keandalan LLM melalui integrasi penyimpanan informasi eksternal – mengekstraksi informasi relevan dari database tepercaya yang dipilih sesuai dengan sifat kueri – untuk memastikan respons yang lebih andal terhadap kueri spesifik.

Beberapa industri ahli telah mengemukakan bahwa RAG sendiri dapat mengatasi halusinasi. Namun database yang terintegrasi dengan RAG masih dapat berisi data yang sudah ketinggalan zaman, sehingga dapat menghasilkan informasi yang salah atau menyesatkan. Dalam kasus tertentu, integrasi data eksternal melalui RAG bahkan dapat meningkatkan kemungkinan halusinasi dalam model bahasa besar: Jika model AI secara tidak proporsional bergantung pada database yang sudah ketinggalan zaman sehingga model tersebut merasakan karena sepenuhnya mutakhir, tingkat halusinasinya mungkin menjadi lebih parah.

Pagar Pembatas AI – Menjembatani Kesenjangan RAG

Seperti yang Anda lihat, RAG memang menjanjikan untuk mengurangi halusinasi AI. Namun, industri dan bisnis yang beralih ke solusi ini juga harus memahami keterbatasan yang ada pada solusi tersebut. Memang benar, bila digunakan bersamaan dengan RAG, ada metodologi pelengkap yang harus digunakan saat menangani halusinasi LLM.

Misalnya, bisnis dapat menggunakan AI secara real-time pagar pembatas untuk mengamankan respons LLM dan mengurangi halusinasi AI. Pagar pembatas bertindak sebagai jaring yang memeriksa semua keluaran LLM untuk konten palsu, tidak senonoh, atau di luar topik sebelum sampai ke pengguna. Pendekatan middleware proaktif ini memastikan keandalan dan relevansi pengambilan dalam sistem RAG, yang pada akhirnya meningkatkan kepercayaan di antara pengguna, dan memastikan interaksi aman yang selaras dengan merek perusahaan.

Alternatifnya, ada pendekatan “prompt engineering”, yang mengharuskan teknisi untuk mengubah prompt master backend. Dengan menambahkan batasan yang telah ditentukan sebelumnya pada perintah yang dapat diterima – dengan kata lain, memantau tidak hanya dari mana LLM mendapatkan informasi tetapi juga bagaimana pengguna menanyakan jawabannya – perintah yang direkayasa dapat memandu LLM menuju hasil yang lebih dapat diandalkan. Kelemahan utama dari pendekatan ini adalah bahwa jenis rekayasa cepat ini bisa menjadi tugas yang sangat memakan waktu bagi pemrogram, yang sering kali sudah kehabisan waktu dan sumber daya.

Pendekatan “penyempurnaan” melibatkan pelatihan LLM pada kumpulan data khusus untuk menyempurnakan kinerja dan mengurangi risiko halusinasi. Metode ini melatih LLM khusus tugas untuk mengambil dari domain tertentu dan tepercaya, sehingga meningkatkan akurasi dan keandalan keluaran.

Penting juga untuk mempertimbangkan dampak panjang masukan terhadap kinerja penalaran LLM – memang, banyak pengguna cenderung berpikir bahwa semakin luas dan memenuhi parameter permintaan mereka, semakin akurat keluarannya. Namun, satu Studi terbaru mengungkapkan bahwa keakuratan keluaran LLM sebenarnya menurun seiring bertambahnya panjang input. Akibatnya, peningkatan jumlah pedoman yang ditetapkan pada perintah tertentu tidak menjamin keandalan yang konsisten dalam menghasilkan aplikasi AI generatif yang dapat diandalkan.

Fenomena ini, yang dikenal sebagai kelebihan beban (prompt overflowing), menyoroti risiko inheren dari desain cepat yang terlalu rumit – semakin luas sebuah perintah diungkapkan, semakin banyak pintu terbuka bagi informasi yang tidak akurat dan halusinasi ketika LLM berusaha keras untuk memenuhi setiap parameter.

Rekayasa cepat membutuhkan pembaruan dan penyempurnaan terus-menerus dan masih berjuang untuk mencegah halusinasi atau respons yang tidak masuk akal secara efektif. Di sisi lain, pagar pembatas tidak akan menimbulkan risiko tambahan pada keluaran palsu, sehingga menjadikannya pilihan yang menarik untuk melindungi AI. Tidak seperti rekayasa cepat, pagar pembatas menawarkan solusi real-time menyeluruh yang memastikan AI generatif hanya akan menghasilkan keluaran dari batas yang telah ditentukan.

Meskipun bukan merupakan solusi, masukan pengguna juga dapat membantu mengurangi halusinasi dengan tindakan seperti suara positif dan suara negatif yang membantu menyempurnakan model, meningkatkan akurasi keluaran, dan menurunkan risiko halusinasi.

Solusi RAG sendiri memerlukan eksperimen ekstensif untuk mencapai hasil yang akurat. Namun jika dipadukan dengan penyesuaian yang baik, rekayasa yang cepat, dan pagar pembatas, teknologi ini dapat menawarkan solusi yang lebih tepat sasaran dan efisien untuk mengatasi halusinasi. Menjelajahi strategi pelengkap ini akan terus meningkatkan mitigasi halusinasi di LLM, membantu pengembangan model yang lebih andal dan tepercaya di berbagai aplikasi.

RAG Bukan Solusi untuk Halusinasi AI

Solusi RAG menambah nilai besar bagi LLM dengan memperkaya mereka dengan pengetahuan eksternal. Namun dengan masih banyaknya hal yang belum diketahui tentang AI generatif, halusinasi tetap menjadi tantangan tersendiri. Kunci untuk memberantasnya bukan terletak pada upaya menghilangkannya, melainkan dengan mengurangi pengaruhnya melalui kombinasi pagar pembatas strategis, proses pemeriksaan, dan arahan yang tepat.

Semakin kita mempercayai apa yang disampaikan GenAI, semakin efektif dan efisien kita dapat memanfaatkan potensinya yang kuat.

Liran Hason adalah Co-Founder dan CEO dari aporia, Platform Kontrol AI terkemuka, dipercaya oleh perusahaan-perusahaan Fortune 500 dan pemimpin industri di seluruh dunia untuk memastikan kepercayaan pada GenAI. Aporia juga diakui sebagai Pelopor Teknologi oleh Forum Ekonomi Dunia. Sebelum mendirikan Aporia, Liran adalah Arsitek ML di Adallom (diakuisisi oleh Microsoft), dan kemudian menjadi investor di Vertex Ventures. Liran mendirikan Aporia setelah melihat langsung efek AI tanpa pagar pembatas. Pada tahun 2022, Forbes menobatkan Aporia sebagai “Perusahaan Miliaran Dolar Berikutnya”