Kunstmatige intelligentie
Het herschrijven van zoekopdrachten: hoe opkomende conversational engines verouderde LLM’s en contextloze traditionele zoekmachines overwinnen

De opkomst van conversational zoekmachines verandert de manier waarop we online informatie opvragen, van traditionele trefwoordzoekopdrachten naar meer natuurlijke, conversational interacties. Door grote taalmodellen (LLM’s) te combineren met real-time webgegevens, lossen deze nieuwe systemen belangrijke problemen op die worden aangetroffen in zowel verouderde LLM’s als standaardzoekmachines. In dit artikel onderzoeken we de uitdagingen waarmee LLM’s en trefwoordzoekopdrachten worden geconfronteerd en verkennen we hoe conversational zoekmachines een veelbelovende oplossing bieden.
Verouderde kennis en betrouwbaarheidsuitdagingen in LLM’s
Grote taalmodellen (LLM’s) hebben onze methoden voor het opvragen en interpreteren van informatie aanzienlijk verbeterd, maar ze hebben een belangrijke beperking: hun onvermogen om real-time updates te bieden. Deze modellen zijn getraind op uitgebreide datasets die tekst uit boeken, artikelen en websites bevatten. Echter, deze trainingsdata weerspiegelen kennis alleen tot het moment waarop ze zijn verzameld, wat betekent dat LLM’s niet automatisch kunnen worden bijgewerkt met nieuwe informatie. Om dit aan te pakken, moeten LLM’s opnieuw worden getraind, een proces dat zowel bronintensief als kostbaar is. Dit omvat het verzamelen en cureren van nieuwe datasets, het opnieuw trainen van het model en het valideren van de prestaties. Elke iteratie vereist aanzienlijke computercapaciteit, energie en financiële investeringen, waardoor er zorgen zijn over de milieueffecten als gevolg van aanzienlijke koolstofemissies.
De statische aard van LLM’s leidt vaak tot onnauwkeurigheden in hun antwoorden. Wanneer ze worden geconfronteerd met vragen over recente gebeurtenissen of ontwikkelingen, kunnen deze modellen antwoorden genereren op basis van verouderde of onvolledige informatie. Dit kan leiden tot “hallucinaties“, waarbij het model onjuiste of gefabriceerde feiten produceert, waardoor de betrouwbaarheid van de verstrekte informatie in twijfel wordt getrokken. Bovendien hebben LLM’s, ondanks hun uitgebreide trainingsdata, moeite om de volledige context van huidige gebeurtenissen of opkomende trends te begrijpen, waardoor hun relevantie en effectiviteit worden beperkt.
Een andere significante tekortkoming van LLM’s is hun gebrek aan citatie of brontransparantie. In tegenstelling tot traditionele zoekmachines, die links naar originele bronnen bieden, genereren LLM’s antwoorden op basis van geaggregeerde informatie zonder te specificeren waar deze vandaan komt. Deze afwezigheid van bronnen belemmert niet alleen de mogelijkheid van gebruikers om de nauwkeurigheid van de informatie te verifiëren, maar beperkt ook de traceerbaarheid van de inhoud, waardoor het moeilijker wordt om de betrouwbaarheid van de antwoorden te bepalen. Gebruikers kunnen het moeilijk vinden om de informatie te valideren of de originele bronnen van de inhoud te onderzoeken.
Context en informatie-overbelastingsuitdagingen in traditionele webzoekmachines
Hoewel traditionele webzoekmachines nog steeds essentieel zijn voor het opvragen van een breed scala aan informatie, worden ze geconfronteerd met verschillende uitdagingen die de kwaliteit en relevantie van hun resultaten beïnvloeden. Een belangrijke uitdaging voor webzoekmachines is hun moeilijkheid om context te begrijpen. Zoekmachines vertrouwen zwaar op trefwoordovereenkomst, wat vaak leidt tot resultaten die niet contextueel relevant zijn. Dit betekent dat gebruikers een overvloed aan informatie ontvangen die niet direct hun specifieke vraag beantwoordt, waardoor het moeilijk wordt om door de informatie heen te worstelen en de meest pertinente antwoorden te vinden. Terwijl zoekmachines algoritmen gebruiken om resultaten te rangschikken, falen ze vaak om gepersonaliseerde antwoorden te bieden op basis van de unieke behoeften of voorkeuren van een individu. Deze gebrek aan personalisatie kan leiden tot generieke resultaten die niet overeenkomen met de specifieke context of intenties van de gebruiker. Bovendien zijn zoekmachines vatbaar voor manipulatie door SEO-spamming en linkfarms. Deze praktijken kunnen resultaten beïnvloeden en minder relevante of minder kwalitatief hoogwaardige inhoud naar de top van de zoekresultaten brengen. Gebruikers kunnen zichzelf blootstellen aan misleidende of bevooroordeelde informatie als gevolg.
Opkomst van conversational zoekmachines
Een conversational zoekmachine vertegenwoordigt een paradigma-shift in de manier waarop we online informatie opvragen en retrieven. In tegenstelling tot traditionele zoekmachines die vertrouwen op trefwoordovereenkomst en algoritmische rangschikking om resultaten te leveren, gebruiken conversational zoekmachines geavanceerde taalmodellen om gebruikersvragen te begrijpen en te beantwoorden op een natuurlijke, menselijke manier. Deze benadering heeft tot doel een meer intuïtieve en efficiënte manier te bieden om informatie te vinden door gebruikers in een dialoog te betrekken in plaats van een lijst met links te presenteren.
Conversational zoekmachines gebruiken de kracht van grote taalmodellen (LLM’s) om de context van vragen te verwerken en te interpreteren, waardoor meer accurate en relevante antwoorden mogelijk worden. Deze machines zijn ontworpen om dynamisch met gebruikers te interageren, follow-upvragen te stellen om zoekopdrachten te verfijnen en aanvullende informatie te bieden als nodig. Op deze manier verbeteren ze niet alleen de gebruikerservaring, maar ook de kwaliteit van de opgevraagde informatie aanzienlijk.
Een van de belangrijkste voordelen van conversational zoekmachines is hun vermogen om real-time updates en contextuele begrip te bieden. Door informatie-opvraagmogelijkheden te integreren met generatieve modellen, kunnen deze machines de laatste gegevens van het web ophalen en incorporeren, waardoor antwoorden actueel en nauwkeurig zijn. Dit lost een van de belangrijkste beperkingen van traditionele LLM’s op, die vaak vertrouwen op verouderde trainingsdata.
Bovendien bieden conversational zoekmachines een niveau van transparantie dat traditionele zoekmachines ontberen. Ze verbinden gebruikers rechtstreeks met geloofwaardige bronnen, bieden duidelijke citaten en links naar relevante inhoud. Deze transparantie bevordert vertrouwen en stelt gebruikers in staat de informatie die ze ontvangen te verifiëren, waardoor een meer geïnformeerd en kritisch benadering van informatieconsumptie wordt bevorderd.
Conversational zoekmachine vs. Retrieval Augmented Generation (RAG)
Tegenwoordig is een van de meest gebruikte AI-geactiveerde informatiesysteem bekend als RAG. Hoewel conversational zoekmachines overeenkomsten vertonen met RAG’s, hebben ze belangrijke verschillen, met name in hun doelstellingen. Beide systemen combineren informatie-opvraag met generatieve taalmodellen om accurate en contextueel relevante antwoorden te bieden. Ze halen real-time gegevens op uit externe bronnen en integreren deze in het generatieve proces, waardoor de gegenereerde antwoorden actueel en omvattend zijn.
Echter, RAG-systemen, zoals Bing, richten zich op het samenvoegen van opgehaalde gegevens met generatieve outputs om precieze informatie te leveren. Ze beschikken niet over follow-upmogelijkheden die gebruikers in staat stellen hun zoekopdrachten systematisch te verfijnen. In tegenstelling tot conversational zoekmachines, zoals OpenAI’s SearchGPT, engageren gebruikers in een dialoog. Ze gebruiken geavanceerde taalmodellen om vragen te begrijpen en te beantwoorden op een natuurlijke manier, bieden follow-upvragen en aanvullende informatie om zoekopdrachten te verfijnen.
Reële voorbeelden
Hier zijn twee reële voorbeelden van conversational zoekmachines:
- Perplexity: Perplexity is een conversational zoekmachine die gebruikers in staat stelt om natuurlijk en contextueel met online-informatie te interageren. Het biedt functies zoals de “Focus”-optie om zoekopdrachten te beperken tot specifieke platforms en de “Related”-functie om follow-upvragen te suggereren. Perplexity werkt op een freemium-model, met de basisversie die standalone LLM-mogelijkheden biedt en de betaalde Perplexity Pro die geavanceerde modellen zoals GPT-4 en Claude 3.5 biedt, evenals verbeterde zoekopdrachtverfijning en bestandsuploads.
- SearchGPT: OpenAI heeft onlangs SearchGPT geïntroduceerd, een tool die de conversational mogelijkheden van grote taalmodellen (LLM’s) combineert met real-time web-updates. Dit helpt gebruikers om relevante informatie meer intuïtief en rechtstreeks te vinden. In tegenstelling tot traditionele zoekmachines, die overweldigend en onpersoonlijk kunnen zijn, biedt SearchGPT concies antwoorden en engageert gebruikers in een conversatie. Het kan follow-upvragen stellen en aanvullende informatie bieden als nodig, waardoor de zoekervaring meer interactief en gebruikersvriendelijk wordt. Een belangrijke functie van SearchGPT is de transparantie. Het verbindt gebruikers rechtstreeks met geloofwaardige bronnen, biedt duidelijke citaten en links naar relevante inhoud. Dit stelt gebruikers in staat om informatie te verifiëren en onderwerpen grondiger te onderzoeken.
De bottom line
Conversational zoekmachines veranderen de manier waarop we online informatie opvragen. Door real-time webgegevens te combineren met geavanceerde taalmodellen, lossen deze nieuwe systemen veel van de tekortkomingen van verouderde grote taalmodellen (LLM’s) en traditionele trefwoordzoekopdrachten op. Ze bieden meer actuele en accurate informatie en verbeteren transparantie door rechtstreeks te linken naar geloofwaardige bronnen. Naarmate conversational zoekmachines zoals SearchGPT en Perplexity.ai zich verder ontwikkelen, bieden ze een meer intuïtieve en betrouwbare benadering van zoeken, waardoor ze de beperkingen van oude methoden overstijgen.












