Kontakt med oss

Tankeledere

Hvis din AI hallusinerer, ikke skyld pÄ AI-en

mm

AI-«hallusinasjoner» – disse overbevisende, men falske svarene – fĂ„r mye medieoppmerksomhet, som den nylige artikkelen i New York Times. AI blir kraftigere, men hallusinasjonene blir verreHallusinasjoner er en reell fare nĂ„r du har med en forbruker-chatbot Ă„ gjĂžre. I forbindelse med forretningsapplikasjoner av AI er det en enda mer alvorlig bekymring. Heldigvis har jeg, som leder innen forretningsteknologi, mer kontroll over det ogsĂ„. Jeg kan sĂžrge for at agenten har de riktige dataene for Ă„ produsere et meningsfullt svar.

Fordi det er det virkelige problemet. I nÊringslivet finnes det ingen unnskyldning for AI hallusinasjonerSlutt Ä skylde pÄ AI. Skyld pÄ deg selv for at du ikke bruker AI riktig.

NĂ„r generativ AI VerktĂžy hallusinerer, de gjĂžr det de er laget for Ă„ gjĂžre – gi det beste svaret de kan basert pĂ„ dataene de har tilgjengelig. NĂ„r de finner pĂ„ ting, produserer de et svar som ikke er basert pĂ„ virkeligheten, Det er fordi de mangler relevante data, ikke finner dem eller ikke forstĂ„r spĂžrsmĂ„letJa, nye modeller som OpenAIs o3 og o4-mini hallusinerer mer, og oppfĂžrer seg enda mer «kreative» nĂ„r de ikke har et godt svar pĂ„ spĂžrsmĂ„let som er stilt til dem. Ja, kraftigere verktĂžy kan hallusinere mer – men de kan ogsĂ„ produsere kraftigere og mer verdifulle resultater hvis vi legger til rette for at de skal lykkes.

Hvis du ikke vil at AI-en din skal hallusinere, mÄ du ikke sulte den for data. Gi AI-en de beste og mest relevante dataene for problemet du vil at den skal lÞse, sÄ vil den ikke bli fristet til Ä gÄ pÄ villspor.

Selv da, nÄr du jobber med et hvilket som helst AI-verktÞy, anbefaler jeg Ä holde dine kritiske tenkeevner intakte. Resultatene AI-agenter leverer kan vÊre produktive og herlige, men poenget er ikke Ä koble fra hjernen og la programvaren gjÞre all tenkingen for deg. Fortsett Ä stille spÞrsmÄl. NÄr en AI-agent gir deg et svar, still spÞrsmÄl ved svaret for Ä vÊre sikker pÄ at det gir mening og er stÞttet av data. I sÄ fall bÞr det vÊre et oppmuntrende tegn pÄ at det er verdt tiden din til Ä stille oppfÞlgingsspÞrsmÄl.

Jo mer du stiller spÞrsmÄl, desto bedre innsikt fÄr du.

Hvorfor hallusinasjoner oppstÄr

Det er ikke noe mysterium. AI-en prÞver ikke Ä lyve til deg. Alle store sprÄkmodeller (LLM) AI-er forutsier i hovedsak det neste ordet eller tallet basert pÄ sannsynlighet.

PÄ et overordnet nivÄ skjer det her at LLM-er setter sammen setninger og avsnitt ett ord om gangen, og forutsier det neste ordet som skal forekomme i setningen basert pÄ milliarder av andre eksempler i treningsdataene. Forfedrene til LLM-er (bortsett fra Clippy) var autofullfÞringsspÞrsmÄl for tekstmeldinger og datakode, automatiserte verktÞy for oversettelse av menneskelig sprÄk og andre sannsynlighetsbaserte sprÄksystemer. Med Þkt brute force-datakraft, pluss trening pÄ internettstore datamengder, ble disse systemene «smarte» nok til at de kunne fÞre en full samtale via chat, slik verden lÊrte med introduksjonen av ChatGPT.

AI-kritikere liker Ä pÄpeke at dette ikke er det samme som ekte «intelligens», bare programvare som kan destillere og gjenskape den menneskelige intelligensen som har blitt matet inn i den. Be den om Ä oppsummere data i en skriftlig rapport, og den imiterer mÄten andre forfattere har oppsummert lignende data pÄ.

Det slÄr meg som et akademisk argument sÄ lenge dataene er korrekte og analysen er nyttig.

Hva skjer hvis AI-en ikke har dataene? Den fyller ut hullene. Noen ganger er det morsomt. Noen ganger er det et totalt rot.

Ved bygging AI-agenter, dette er 10 ganger risikoen. Agenter skal gi handlingsrettet innsikt, men de tar flere beslutninger underveis. De utfþrte flertrinnsoppgaver, der resultatet av trinn 1 informerer trinn 2, 3, 4, 5, 
 10 
 20. Hvis resultatene av trinn 1 er feil, vil feilen bli forsterket, noe som gjþr resultatet i trinn 20 enda verre. Spesielt siden agenter kan ta beslutninger og hoppe over trinn.

NÄr det gjÞres riktig, oppnÄr agenter mer for bedriften som bruker dem. Likevel, som produktledere for AI, mÄ vi erkjenne den stÞrre risikoen som fÞlger med den stÞrre belÞnningen.

Det var det teamet vÄrt gjorde. Vi sÄ risikoen og tok tak i den. Vi bygde ikke bare en fancy robot; vi sÞrget for at den kjÞrer pÄ de riktige dataene. Her er hva jeg synes vi gjorde riktig:

  • Bygg agenten slik at den stiller de riktige spĂžrsmĂ„lene og bekrefter at den har de riktige dataene. SĂžrg for at agentens innledende datainndataprosess faktisk er mer deterministisk og mindre «kreativ». Du vil at agenten skal si ifra nĂ„r den ikke har de riktige dataene, og ikke fortsette til neste trinn, i stedet for Ă„ dikte opp dataene.
  • Strukturer en strategiplan for agenten din – sĂžrg for at den ikke finner opp en ny plan hver gang, men har en semistrukturert tilnĂŠrming. Struktur og kontekst er ekstremt viktig i datainnsamlings- og analysefasen. Du kan la agenten slappe av og oppfĂžre seg mer «kreativt» nĂ„r den har faktaene og er klar til Ă„ skrive sammendraget, men fĂžrst mĂ„ du fĂ„ faktaene riktige.
  • Bygg et verktĂžy av hĂžy kvalitet for Ă„ hente ut dataene. Dette bĂžr vĂŠre mer enn bare et API-kall. Ta deg tid til Ă„ skrive koden (folk gjĂžr fortsatt det) som gir riktig mengde og variasjon av data som skal samles inn, og legg inn kvalitetskontroller i prosessen.
  • FĂ„ agenten til Ă„ vise frem arbeidet sitt. Agenten bĂžr sitere kildene sine og lenke til steder der brukeren kan bekrefte dataene fra den opprinnelige kilden og utforske dem videre. Ingen overgrep er tillatt!
  • Beskyttelsesmekanismer: Tenk gjennom hva som kan gĂ„ galt, og bygg inn beskyttelse mot feil du absolutt ikke kan tillate. I vĂ„rt tilfelle betyr det at nĂ„r agenten som har i oppgave Ă„ analysere et marked ikke har dataene – med det mener jeg vĂ„re Similarweb-data, ikke en tilfeldig datakilde hentet fra nettet – er det et viktig beskyttelsesmekanisme Ă„ sĂžrge for at de ikke finner pĂ„ noe. Det er bedre for agenten Ă„ ikke kunne svare enn Ă„ gi et falskt eller misvisende svar.

Vi har innlemmet disse prinsippene i den nylige lanseringen av vÄre tre nye agenter, og flere kommer senere. For eksempel spÞr ikke vÄr AI Meeting Prep Agent for selgere bare om navnet pÄ mÄlbedriften, men ogsÄ detaljer om mÄlet med mÞtet og hvem det er med, noe som forbereder det pÄ Ä gi et bedre svar. Den trenger ikke Ä gjette fordi den bruker en mengde bedriftsdata, digitale data og lederprofiler for Ä informere sine anbefalinger.

Er agentene vÄre perfekte? Nei. Ingen lager perfekt AI ennÄ, ikke engang de stÞrste selskapene i verden. Men Ä ta tak i problemet er mye bedre enn Ä ignorere det.

Vil du ha fĂŠrre hallusinasjoner? Gi AI-en din en god del av data av hĂžy kvalitet.

Hvis det hallusinerer, er det kanskje ikke AI-en som trenger Ä fikses. Kanskje det er din tilnÊrming til Ä dra nytte av disse kraftige nye funksjonene uten Ä legge ned tid og krefter pÄ Ä fÄ dem riktig.

Omri Shtayer er visepresident for dataprodukter og DaaS hos SimilarWeb, hvor han leder innovasjon pĂ„ tvers av organisasjonen og driver veksten av datavirksomheten. Han ledet nylig lanseringen av AI Agents – skalerbare, intelligente verktĂžy utviklet for Ă„ hjelpe bedrifter med Ă„ oversette data til resultater i den virkelige verden. Med en merittliste innen bygging av effektive datalĂžsninger er Omri i forkant av Ă„ transformere hvordan bedrifter utnytter digital intelligens.