Connect with us

Kecerdasan buatan

Mendefinisikan Kembali Pencarian: Bagaimana Mesin Pencarian Konversasional yang Muncul Mengatasi LLM yang Ketinggalan Zaman dan Mesin Pencarian Tradisional yang Tidak Memiliki Konteks

mm

Kemunculan mesin pencarian konversasional sedang mendefinisikan kembali cara kita mengambil informasi online, beralih dari pencarian kata kunci tradisional ke interaksi konversasional yang lebih alami. Dengan menggabungkan model bahasa besar (LLM) dengan data web waktu nyata, sistem baru ini menangani masalah kunci yang ditemukan di LLM yang ketinggalan zaman dan mesin pencarian standar. Dalam artikel ini, kita akan mengeksaminasi tantangan yang dihadapi oleh LLM dan pencarian berbasis kata kunci dan menjelajahi bagaimana mesin pencarian konversasional menawarkan solusi yang menjanjikan.

Pengetahuan Ketinggalan Zaman dan Tantangan Keandalan di LLM

Model bahasa besar (LLM) telah secara signifikan memajukan metode kita untuk mengakses dan menafsirkan informasi, tetapi mereka menghadapi keterbatasan besar: ketidakmampuan mereka untuk menyediakan pembaruan waktu nyata. Model-model ini dilatih pada dataset ekstensif yang mencakup teks dari buku, artikel, dan situs web. Namun, data pelatihan ini hanya mencerminkan pengetahuan hingga waktu itu dikumpulkan, yang berarti LLM tidak dapat memperbarui secara otomatis dengan informasi baru. Untuk mengatasi ini, LLM harus menjalani pelatihan ulang, proses yang memerlukan sumber daya dan biaya. Ini melibatkan mengumpulkan dan mengkurasi dataset baru, melatih ulang model, dan memvalidasi kinerjanya. Setiap iterasi memerlukan kekuatan komputasi yang substansial, energi, dan investasi keuangan, yang meningkatkan kekhawatiran tentang dampak lingkungan karena emisi karbon yang signifikan.

Sifat statis LLM sering menyebabkan ketidakakuratan dalam respons mereka. Ketika dihadapkan pada pertanyaan tentang peristiwa atau perkembangan terbaru, model-model ini mungkin menghasilkan respons berdasarkan informasi yang ketinggalan zaman atau tidak lengkap. Ini dapat menghasilkan “halusinasi,” di mana model menghasilkan fakta yang salah atau dibuat-buat, melemahkan keandalan informasi yang disediakan. Selain itu, meskipun memiliki dataset pelatihan yang luas, LLM bergelut untuk memahami konteks penuh dari peristiwa atau tren yang muncul, membatasi relevansi dan efektivitasnya.

Keterbatasan signifikan lain dari LLM adalah kurangnya transparansi sumber atau kutipan. Tidak seperti mesin pencarian tradisional, yang menyediakan tautan ke sumber asli, LLM menghasilkan respons berdasarkan informasi yang dikumpulkan tanpa menentukan dari mana asalnya. Ketiadaan sumber ini tidak hanya menghambat kemampuan pengguna untuk memverifikasi akurasi informasi tetapi juga membatasi kemampuan untuk melacak konten, membuatnya lebih sulit untuk menentukan keandalan jawaban yang diberikan. Akibatnya, pengguna mungkin menemukan bahwa memverifikasi informasi atau menjelajahi sumber asli konten menjadi tantangan.

Tantangan Konteks dan Kebutuhan Informasi yang Berlebihan di Mesin Pencarian Web Tradisional

Meskipun mesin pencarian web tradisional tetap penting untuk mengakses berbagai informasi, mereka menghadapi beberapa tantangan yang mempengaruhi kualitas dan relevansi hasilnya. Tantangan besar dengan pencarian web ini adalah kesulitan memahami konteks. Mesin pencarian sangat bergantung pada pencocokan kata kunci, yang sering menghasilkan hasil yang tidak relevan dengan konteks. Ini berarti pengguna menerima banjir informasi yang tidak secara langsung menjawab pertanyaan mereka, membuatnya sulit untuk menyaring dan menemukan jawaban yang paling relevan. Meskipun mesin pencarian menggunakan algoritma untuk peringkat hasil, mereka sering gagal menyediakan jawaban yang dipersonalisasi berdasarkan kebutuhan atau preferensi unik pengguna. Kekurangan personalisasi ini dapat menghasilkan hasil generik yang tidak sesuai dengan konteks atau niat pengguna. Selain itu, mesin pencarian rentan terhadap manipulasi melalui spam SEO dan pertanian tautan. Praktik-praktik ini dapat memengaruhi hasil, mempromosikan konten yang kurang relevan atau kualitas lebih rendah ke puncak peringkat pencarian. Pengguna mungkin menemukan diri mereka terpapar pada informasi yang menyesatkan atau bias.

Emergence of Conversational Search Engine

Mesin pencarian konversasional mewakili pergeseran paradigma dalam cara kita berinteraksi dan mengambil informasi online. Tidak seperti mesin pencarian tradisional yang bergantung pada pencocokan kata kunci dan peringkat algoritma untuk menyampaikan hasil, mesin pencarian konversasional menggunakan model bahasa lanjutan untuk memahami dan merespons pertanyaan pengguna dengan cara yang alami dan menyerupai manusia. Pendekatan ini bertujuan untuk menyediakan cara yang lebih intuitif dan efisien untuk menemukan informasi dengan melibatkan pengguna dalam dialog bukan menyajikan daftar tautan.

Mesin pencarian konversasional memanfaatkan kekuatan model bahasa besar (LLM) untuk memproses dan menafsirkan konteks pertanyaan, memungkinkan respons yang lebih akurat dan relevan. Mesin-mesin ini dirancang untuk berinteraksi secara dinamis dengan pengguna, mengajukan pertanyaan lanjutan untuk memperhalus pencarian dan menawarkan informasi tambahan jika diperlukan. Dengan cara ini, mereka tidak hanya meningkatkan pengalaman pengguna tetapi juga secara signifikan meningkatkan kualitas informasi yang diperoleh.

Salah satu kelebihan utama mesin pencarian konversasional adalah kemampuan mereka untuk menyediakan pembaruan waktu nyata dan pemahaman konteks. Dengan mengintegrasikan kemampuan pengambilan informasi dengan model generatif, mesin-mesin ini dapat mengambil dan menggabungkan data terbaru dari web, memastikan bahwa responsnya saat ini dan akurat. Ini menangani salah satu keterbatasan besar LLM tradisional, yang sering bergantung pada data pelatihan yang ketinggalan zaman.

Selain itu, mesin pencarian konversasional menawarkan tingkat transparansi yang mesin pencarian tradisional tidak miliki. Mereka menghubungkan pengguna secara langsung dengan sumber kredibel, menyediakan kutipan yang jelas dan tautan ke konten yang relevan. Transparansi ini membangun kepercayaan dan memungkinkan pengguna untuk memverifikasi informasi yang mereka terima, mempromosikan pendekatan yang lebih terinformasi dan kritis terhadap konsumsi informasi.

Conversational Search Engine vs. Retrieval Augmented Generation (RAG)

Saat ini, salah satu sistem pengambilan informasi yang paling umum digunakan adalah RAG. Meskipun mesin pencarian konversasional memiliki kesamaan dengan RAG, mereka memiliki perbedaan kunci, terutama dalam tujuan mereka. Kedua sistem menggabungkan pengambilan informasi dengan model bahasa generatif untuk menyediakan jawaban yang akurat dan relevan dengan konteks. Mereka mengekstrak data waktu nyata dari sumber eksternal dan mengintegrasikannya ke dalam proses generatif, memastikan bahwa respons yang dihasilkan saat ini dan komprehensif.

Namun, sistem RAG, seperti Bing, fokus pada menggabungkan data yang diperoleh dengan output generatif untuk menyampaikan informasi yang tepat. Mereka tidak memiliki kemampuan lanjutan yang memungkinkan pengguna untuk secara sistematis memperhalus pencarian mereka. Sebaliknya, mesin pencarian konversasional, seperti SearchGPT dari OpenAI, melibatkan pengguna dalam dialog. Mereka menggunakan model bahasa lanjutan untuk memahami dan merespons pertanyaan secara alami, menawarkan pertanyaan lanjutan dan informasi tambahan untuk memperhalus pencarian.

Contoh Dunia Nyata

Berikut adalah dua contoh mesin pencarian konversasional:

  • Perplexity: Perplexity adalah mesin pencarian konversasional yang memungkinkan pengguna untuk berinteraksi secara alami dan kontekstual dengan informasi online. Ini menawarkan fitur seperti opsi “Fokus” untuk mempersempit pencarian ke platform tertentu dan fitur “Terhubung” untuk menyarankan pertanyaan lanjutan. Perplexity beroperasi pada model freemium, dengan versi dasar yang menawarkan kemampuan LLM mandiri dan Perplexity Pro yang menawarkan model lanjutan seperti GPT-4 dan Claude 3.5, serta pembaruan kueri dan unggahan file yang ditingkatkan.
  • SearchGPT: OpenAI baru-baru ini memperkenalkan SearchGPT, alat yang menggabungkan kemampuan konversasional model bahasa besar (LLM) dengan pembaruan web waktu nyata. Ini membantu pengguna mengakses informasi yang relevan dengan cara yang lebih intuitif dan langsung. Tidak seperti mesin pencarian tradisional yang dapat membingungkan dan tidak personal, SearchGPT menyediakan jawaban yang ringkas dan melibatkan pengguna dalam percakapan. Ini dapat mengajukan pertanyaan lanjutan dan menawarkan informasi tambahan jika diperlukan, membuat pengalaman pencarian lebih interaktif dan ramah pengguna. Fitur kunci dari SearchGPT adalah transparansinya. Ini menghubungkan pengguna secara langsung dengan sumber kredibel, menawarkan kutipan yang jelas dan tautan ke konten yang relevan. Ini memungkinkan pengguna untuk memverifikasi informasi dan menjelajahi topik dengan lebih menyeluruh.

Ringkasan

Mesin pencarian konversasional sedang mengubah cara kita menemukan informasi online. Dengan menggabungkan data web waktu nyata dengan model bahasa lanjutan, sistem baru ini menangani banyak kelemahan LLM yang ketinggalan zaman dan pencarian berbasis kata kunci tradisional. Mereka menyediakan informasi yang lebih saat ini dan akurat dan meningkatkan transparansi dengan menghubungkan langsung ke sumber kredibel. Ketika mesin pencarian konversasional seperti SearchGPT dan Perplexity.ai berkembang, mereka menawarkan pendekatan yang lebih intuitif dan dapat diandalkan untuk pencarian, melampaui keterbatasan metode lama.

Dr. Tehseen Zia adalah Profesor Asosiasi Tetap di COMSATS University Islamabad, memegang gelar PhD di AI dari Vienna University of Technology, Austria. Mengkhususkan diri dalam Kecerdasan Buatan, Pembelajaran Mesin, Ilmu Data, dan Penglihatan Komputer, ia telah membuat kontribusi signifikan dengan publikasi di jurnal ilmiah terkemuka. Dr. Tehseen juga telah memimpin berbagai proyek industri sebagai Penyelidik Utama dan menjabat sebagai Konsultan AI.