Tankeledere
Stopp AI fra å spinne historier: En guide til å forebygge hallusinasjoner

AI revolusjonerer måten nesten hver industri opererer. Det gjør oss mer effektive, mer produktive og – når det implementeres riktig – bedre på jobben vår. Men når avhengigheten vår av denne nye teknologien øker raskt, må vi påminne oss om en enkel fakta: AI er ikke feilfri. Utdataene dens bør ikke tas som en selvfølge, fordi AI, akkurat som mennesker, kan gjøre feil.
Vi kaller disse feilene “AI-hallusinasjoner”. Slike feil kan variere fra å svare feil på et matematisk problem til å gi uriktige opplysninger om regjeringens politikker. I høyt regulerte industrier kan hallusinasjoner føre til dyre boter og juridiske problemer, ikke til å nevne misfornøyde kunder.
Frekvensen av AI-hallusinasjoner bør derfor være årsak til bekymring: det estimeres at moderne store språkmodeller (LLM) hallusinerer noen gang mellom 1% og 30% av tiden. Dette resulterer i hundrevis av feil svar generert daglig, hvilket betyr at bedrifter som ønsker å utnytte denne teknologien må være meget selektive når de velger hvilke verktøy å implementere.
La oss utforske hvorfor AI-hallusinasjoner skjer, hva som står på spill og hvordan vi kan identifisere og korrigere dem.
Garbage in, garbage out
Husker du å spille spillet “telefon” som barn? Hvordan startfrasen ble forvrengt når den gikk fra spiller til spiller, resulterende i en helt annen uttalelse når den kom rundt sirkelen?
Måten AI lærer fra sine inndata er lignende. Svarene LLM genererer er bare like gode som informasjonen de får, hvilket betyr at feil kontekst kan føre til generering og spredning av feil informasjon. Hvis et AI-system er bygget på data som er uriktige, utdaterte eller partiske, vil utdataene reflektere dette.
Som sådan er en LLM bare like god som inndataene, spesielt når det er mangel på menneskelig inngripen eller tilsyn. Ettersom flere autonome AI-løsninger utbreder seg, er det kritisk at vi gir verktøyene riktig datakontekst for å unngå å forårsake hallusinasjoner. Vi trenger rigorøs trening av denne dataen, og/eller evnen til å guide LLM-er slik at de svarer kun fra konteksten de får, i stedet for å hente informasjon fra hvor som helst på internettet.
Hvorfor er hallusinasjoner viktige?
For kundeorienterte bedrifter er nøyaktighet alt. Hvis ansatte er avhengige av AI for oppgaver som syntetisering av kundedata eller besvare kunde-spørsmål, må de stole på at svarene slik verktøy genererer er nøyaktige.
Ellers risikerer bedrifter å skade sin omdømme og kundeloyalitet. Hvis kunder får uriktige eller mangelfulle svar fra en chatbot, eller hvis de må vente mens ansatte faktasjekker chatbotens utdata, kan de ta sin forretning andre steder. Folk bør ikke bekymre seg for om bedriftene de samhandler med, er i ferd med å mata dem feil informasjon – de ønsker rask og pålitelig støtte, hvilket betyr at å få disse interaksjonene riktige er av største viktighet.
Bedriftsledere må gjøre sin hjemmearbeid når de velger riktig AI-verktøy for ansatte. AI er ment å frigjøre tid og energi for ansatte til å fokusere på høyere-verdi oppgaver; å investere i en chatbot som krever konstant menneskelig tilsyn, ødelegger hele formålet med adopsjonen. Men er eksistensen av hallusinasjoner virkelig så fremtredende eller er begrepet bare overbrukt for å identifisere med enhver respons vi antar å være uriktig?
Bekjempelse av AI-hallusinasjoner
Vurdér: Dynamic Meaning Theory (DMT), konseptet om at en forståelse mellom to personer – i dette tilfelle brukeren og AI – utveksles. Men begrensningene i språk og kunnskap om emnene forårsaker en misforståelse i tolkningen av svaret.
I tilfelle AI-genererte svar er det mulig at de underliggende algoritmene ennå ikke er fullt utstyrt til å tolke eller generere tekst på en måte som stemmer overens med forventningene våre som mennesker. Denne diskrepansen kan føre til svar som kan synes nøyaktige på overflaten, men mangler dybde eller nyanser for ekte forståelse.
Videre henter de fleste generelle LLM-er informasjon bare fra innhold som er offentlig tilgjengelig på internettet. Bedriftsapplikasjoner av AI fungerer bedre når de informeres av data og politikker som er spesifikke for enkeltindustrier og bedrifter. Modellene kan også forbedres med direkte menneskelig tilbakemelding – spesielt agente løsninger som er designet til å svare på tone og syntaks.
Slike verktøy bør også testes strengt før de blir kundeorienterte. Dette er en kritisk del av å forebygge AI-hallusinasjoner. Hele flyten bør testes ved hjelp av samtaler med LLM som spiller rollen som en persona. Dette tillater bedrifter å bedre anta den generelle suksessen av samtaler med en AI-modell før den slipper ut i verden.
Det er essensielt for både utviklere og brukere av AI-teknologi å forbli klar over dynamisk meningsteori i svarene de mottar, samt dynamikken i språket som brukes i inndataene. Husk, kontekst er nøkkel. Og som mennesker har vi potensialet til å hallusinere i respons til spørsmål. Men i vår nåværende iterasjon av AI, er vår menneske-til-menneske-forståelse ikke så lett kontekstualisert, så vi må være mer kritiske til konteksten vi gir i skrift.
Det er nok å si – ikke alle AI-modeller er skapt like. Ettersom teknologien utvikler seg for å fullføre stadig mer komplekse oppgaver, er det kritisk for bedrifter som vurderer implementering å identifisere verktøy som vil forbedre kundeinteraksjoner og -opplevelser, i stedet for å trekke fra dem.
Ansvarlig ikke bare ligger på løsningsleverandører for å sikre at de har gjort alt i deres makt for å minimere sjansen for at hallusinasjoner skjer. Potensielle kjøpere har også sin rolle å spille. Ved å prioritere løsninger som er strengt trent og testet og kan lære fra proprietær data (i stedet for alt og alle på internettet), kan bedrifter få mest mulig ut av sine AI-investeringer for å sette ansatte og kunder opp for suksess.












