Connect with us

Kunstig intelligens

Omdefinering av søk: Hvordan nye konversasjonssøkemotorer overvinner foreldede LLM og kontekstløse tradisjonelle søkemotorer

mm

Introduksjonen av konversasjonssøkemotorer definerer om hvordan vi henter informasjon på nettet, og skifter fra tradisjonelle nøkkelordsøk til mer naturlige, konversasjonelle interaksjoner. Ved å kombinere store språkmodeller (LLM) med sanntids nettdata, løser disse nye systemene nøkkelproblemer funnet i både foreldede LLM og standard søkemotorer. I denne artikkelen vil vi undersøke utfordringene møtt av LLM og nøkkelordsbasert søk, og utforske hvordan konversasjonssøkemotorer tilbyr en løftende løsning.

Foreldet kunnskap og pålitelighetsutfordringer i LLM

Store språkmodeller (LLM) har betydelig fremmet våre metoder for å få tilgang til og tolke informasjon, men de møter en betydelig begrensning: deres evne til å gi sanntidsoppdateringer. Disse modellene er trent på omfattende dataserier som inkluderer tekst fra bøker, artikler og nettsider. Imidlertid reflekterer denne treningdata kunnskap bare opp til tidspunktet det ble samlet inn, noe som betyr at LLM ikke kan oppdatere automatisk med ny informasjon. For å løse dette, må LLM gjennomgå om-trening, en prosess som er både ressurskrevende og kostbar. Dette involverer å samle inn og kurere nye dataserier, om-trening av modellen og validering av dens ytelse. Hver iterasjon krever betydelig beregningskraft, energi og finansiell investering, noe som raiser bekymringer om miljøpåvirkningen på grunn av betydelige karbonutslipp.

Den statiske naturen til LLM fører ofte til uakkurater i deres svar. Når de møter spørsmål om nylige hendelser eller utviklinger, kan disse modellene generere svar basert på foreldet eller ufullstendig informasjon. Dette kan resultere i “hallusinasjoner“, hvor modellen produserer feil eller fabrikkerte fakta, noe som undergraver påliteligheten av informasjonen som tilbys. Videre, til tross for deres omfattende treningdata, sliter LLM med å forstå full kontekst av nåværende hendelser eller nye trender, noe som begrenser deres relevans og effektivitet.

En annen betydelig svakhet i LLM er deres mangel på kilde- eller kildetransparens. I motsetning til tradisjonelle søkemotorer, som gir lenker til opprinnelige kilder, genererer LLM svar basert på aggregert informasjon uten å spesifisere hvor den opprinnelse. Denne mangelen på kilder hindrer ikke bare brukernes evne til å verifisere nøyaktigheten av informasjonen, men begrenser også sporingen av innholdet, noe som gjør det vanskeligere å bestemme påliteligheten av svarene som gis. Derfor kan brukerne finne det utfordrende å verifisere informasjonen eller utforske de opprinnelige kildene til innholdet.

Kontekst og informasjons-overbelastning utfordringer i tradisjonelle nett-søkemotorer

Selv om tradisjonelle nett-søkemotorer fortsatt er avgjørende for å få tilgang til en bred rekke informasjon, møter de flere utfordringer som påvirker kvaliteten og relevansen av deres resultater. En betydelig utfordring med denne nett-søket er vanskeligheten med å forstå kontekst. Søkemotorer er avhengige av nøkkelord-matching, noe som ofte fører til resultater som ikke er kontekstuell relevante. Dette betyr at brukerne mottar en flom av informasjon som ikke direkte besvarer deres spesifikke spørsmål, noe som gjør det utfordrende å finne de mest pertinente svarene. Mens søkemotorer bruker algoritmer til å rangere resultater, kan de ofte ikke levere personlige svar basert på enkeltpersoners unike behov eller preferanser. Denne mangelen på personliggjøring kan føre til generiske resultater som ikke stemmer overens med brukerens spesifikke kontekst eller intensjoner. Videre er søkemotorer utsatt for manipulering gjennom SEO-spamming og link-fabrikker. Disse praksisene kan forvrengle resultater, fremme mindre relevante eller lavere kvalitetsinnhold til toppen av søke-rangeringen. Brukere kan finne seg selv utsatt for misvisende eller partiske informasjon som følge.

Fremveksten av konversasjonssøkemotor

En konversasjonssøkemotor representerer en paradigmeskifte i måten vi interagerer med og henter informasjon på nettet. I motsetning til tradisjonelle søkemotorer som avhenger av nøkkelord-matching og algoritmisk rangering for å levere resultater, utnytter konversasjonssøkemotorer avanserte språkmodeller til å forstå og svare på brukerspørsmål på en naturlig, menneske-liknende måte. Dette tilnærmingen sikter på å gi en mer intuitiv og effektiv måte å finne informasjon på, ved å engasjere brukerne i en dialog i stedet for å presentere en liste med lenker.

Konversasjonssøkemotorer utnytter kraften til store språkmodeller (LLM) til å prosessere og tolke konteksten av spørsmål, noe som muliggjør mer nøyaktige og relevante svar. Disse motorer er designet til å interagere dynamisk med brukerne, stille oppfølgende spørsmål for å finjustere søk og tilby ekstra informasjon når det er nødvendig. Dette måte ikke bare forbedrer brukeropplevelsen, men forbedrer også betydelig kvaliteten på informasjonen som hentes.

En av de primære fordelene med konversasjonssøkemotorer er deres evne til å gi sanntidsoppdateringer og kontekstuell forståelse. Ved å integrere informasjonsgjenfinningsevner med generative modeller, kan disse motorer hente og inkorporere de siste data fra nettet, noe som sikrer at svarene er nåværende og nøyaktige. Dette løser en av de største begrensningene til tradisjonelle LLM, som ofte avhenger av foreldet treningdata.

Videre tilbyr konversasjonssøkemotorer en nivå av transparens som tradisjonelle søkemotorer mangler. De kobler brukerne direkte til troverdige kilder, og gir klare kildehenvisninger og lenker til relevant innhold. Denne transparensen fremmer tillit og lar brukerne verifisere informasjonen de mottar, noe som fremmer en mer informert og kritisk tilnærming til informasjonsforbruk.

Konversasjonssøkemotor vs. Retrieval Augmented Generation (RAG)

I dag er ett av de vanligste AI-aktiverede informasjons-gjenfinningssystemer kjent som RAG. Mens konversasjonssøkemotorer deler likheter med RAG, har de nøkkel-forskjeller, spesielt i deres mål. Begge systemer kombinerer informasjonsgjenfinning med generative språkmodeller for å gi nøyaktige og kontekstuell relevante svar. De henter sanntidsdata fra eksterne kilder og integrerer det i den generative prosessen, noe som sikrer at de genererte svarene er nåværende og omfattende.

Imidlertid fokuserer RAG-systemer, som Bing, på å slå sammen hentet data med generative utdata for å levere nøyaktig informasjon. De besitter ikke evnen til å stille oppfølgende spørsmål som lar brukerne systematisk finjustere søket. I motsetning engasjerer konversasjonssøkemotorer, som OpenAI’s SearchGPT, brukerne i en dialog. De utnytter avanserte språkmodeller til å forstå og svare på spørsmål på en naturlig måte, og tilbyr oppfølgende spørsmål og ekstra informasjon for å finjustere søk.

Virkelige eksempler

Her er to virkelige eksempler på konversasjonssøkemotorer:

  • Perplexity: Perplexity er en konversasjonssøkemotor som lar brukerne interagere naturlig og kontekstuell med nett-informasjon. Den tilbyr funksjoner som “Fokus”-valget for å begrense søk til spesifikke plattformer og “Relatert”-funksjonen for å foreslå oppfølgende spørsmål. Perplexity opererer på en freemium-modell, hvor den grunnleggende versjonen tilbyr standalone LLM-kapasiteter og den betalte Perplexity Pro tilbyr avanserte modeller som GPT-4 og Claude 3.5, samt forbedret søke-finjustering og fil-opplasting.
  • SearchGPT: OpenAI har nylig introdusert SearchGPT, et verktøy som slår sammen konversasjonsevnen til store språkmodeller (LLM) med sanntids nett-oppdateringer. Dette hjelper brukerne å få tilgang til relevante informasjon på en mer intuitiv og rett frem måte. I motsetning til tradisjonelle søkemotorer, som kan være overveldende og upersonlige, tilbyr SearchGPT konsise svar og engasjerer brukerne i en dialog. Den kan stille oppfølgende spørsmål og tilby ekstra informasjon når det er nødvendig, noe som gjør søke-opplevelsen mer interaktiv og bruker-vennlig. En nøkkel-egenskap til SearchGPT er dens transparens. Den kobler brukerne direkte til troverdige kilder, og tilbyr klare kildehenvisninger og lenker til relevant innhold. Dette muliggjør at brukerne kan verifisere informasjonen og utforske emner mer grundig.

Botnen av saken

Konversasjonssøkemotorer former om hvordan vi finner informasjon på nettet. Ved å kombinere sanntids nettdata med avanserte språkmodeller, løser disse nye systemene mange av begrensningene til foreldede store språkmodeller (LLM) og tradisjonelle nøkkelordsbasert søk. De tilbyr mer nåværende og nøyaktig informasjon, og forbedrer transparensen ved å koble brukerne direkte til troverdige kilder. Mens konversasjonssøkemotorer som SearchGPT og Perplexity.ai utvikler seg, tilbyr de en mer intuitiv og pålitelig tilnærming til søk, og går utenfor begrensningene til eldre metoder.

Dr. Tehseen Zia er en fast ansatt associate professor ved COMSATS University Islamabad, med en PhD i AI fra Vienna University of Technology, Østerrike. Som spesialist i kunstig intelligens, maskinlæring, datavitenskap og datavisjon, har han gjort betydelige bidrag med publikasjoner i anerkjente vitenskapelige tidsskrifter. Dr. Tehseen har også ledet flere industriprosjekter som hovedundersøker og tjenestegjort som AI-konsulent.