Anslut dig till vÄrt nÀtverk!

Tanke ledare

NÀr din AI hittar pÄ fakta: Företagsrisken som ingen ledare kan ignorera

mm

Det lÄter rÀtt. Det ser rÀtt ut. Det Àr fel. Det Àr din AI pÄ hallucinationer. Problemet Àr inte bara att dagens generativa AI-modeller hallucineraDet Àr att vi kÀnner att om vi bygger tillrÀckligt med skyddsrÀcken, finjusterar det, RAG-ar det och tÀmjer det pÄ nÄgot sÀtt, sÄ kommer vi att kunna anamma det i företagsskala.

LÀsa pÄ DomÀn Hallucinationsfrekvens Viktiga resultat
Stanford HAI & RegLab (Jan 2024) Adress 69% -88% Jurister uppvisade höga hallucinationsfrekvenser nÀr de svarade pÄ juridiska frÄgor, och de saknade ofta sjÀlvinsikt om sina misstag och förstÀrkte felaktiga juridiska antaganden.
JMIR-studien Lagring Akademiska referenser GPT-3.5: 90.6%, GPT-4: 86.6%, Bard: 100% LLM-genererade referenser var ofta irrelevanta, felaktiga eller saknade stöd i tillgÀnglig litteratur.
Brittisk studie om AI-genererat innehÄll (Feb 2025) Finans Ej specificerad AI-genererad desinformation ökade risken för bankrusningar, dÀr en betydande andel bankkunder övervÀgde att flytta sina pengar efter att ha sett AI-genererat falskt innehÄll.
VÀrldsekonomiskt forums globala riskrapport Lagring Global riskbedömning Ej specificerad Felinformation och desinformation, förstÀrkt av AI, rankades som den största globala risken sett över tvÄ Är.
Vectara Hallucination Topplista Lagring AI-modellutvÀrdering GPT-4.5-Förhandsgranskning: 1.2 %, Google Gemini-2.0-Pro-Exp: 0.8 %, Vectara Mockingbird-2-Echo: 0.9 % UtvÀrderade hallucinationsfrekvenser över olika LLM:er, vilket avslöjade signifikanta skillnader i prestanda och noggrannhet.
Arxiv-studie om faktahallucinationer Lagring AI-forskning Ej specificerad Introducerade HaluEval 2.0 för att systematiskt studera och upptÀcka hallucinationer hos juridiklÀrare, med fokus pÄ faktiska felaktigheter.

Hallucinationsfrekvensen varierar frÄn 0.8 % till 88 %.

Ja, det beror pĂ„ modell, domĂ€n, anvĂ€ndningsfall och kontext, men den spridningen borde skaka om alla beslutsfattare inom företaget. Det hĂ€r Ă€r inte fel i marginalfallet. De Ă€r systemiska. Hur fattar du rĂ€tt beslut nĂ€r det gĂ€ller AI-implementering i ditt företag? Var, hur, hur djupt, hur brett? 

Och exempel pĂ„ verkliga konsekvenser av detta dyker upp i ditt nyhetsflöde varje dag.  G20:s rĂ„d för finansiell stabilitet har flaggat generativ AI som en vektor för desinformation. vilket kan orsaka marknadskriser, politisk instabilitet och vĂ€rre – flashkrascher, falska nyheter och bedrĂ€gerier. I en annan nyligen rapporterad artikel utfĂ€rdade advokatbyrĂ„n Morgan & Morgan ett nödmeddelande till alla advokater: Skicka inte in AI-genererade ansökningar utan att kontrollera. Falsk rĂ€ttspraxis Ă€r ett "prövningsbart" brott.

Det hÀr kanske inte Àr den bÀsta tiden att satsa pÄ att hallucinationsfrekvensen tenderar att motsvara noll inom den nÀrmaste framtiden. SÀrskilt inom reglerade branscher, sÄsom juridik, biovetenskap, kapitalmarknader eller andra, dÀr kostnaden för ett misstag kan vara hög, inklusive publicering av högre utbildning.

Hallucination Àr inte ett avrundningsfel

Det hÀr handlar inte om ett enstaka fel svar. Det handlar om Risken: RyktesmÀssig, juridisk, operativ.

Generativ AI Ă€r inte en resonemangsmotor. Det Ă€r en statistisk efterbehandlare, en stokastisk papegoja. Den slutför din prompt pĂ„ det mest sannolika sĂ€ttet baserat pĂ„ trĂ€ningsdata. Även verklighetstrogna delar Ă€r gissningar. Vi kallar de mest absurda styckena för "hallucinationer", men hela resultatet Ă€r en hallucination. En vĂ€lformulerad sĂ„dan. ÄndĂ„ fungerar det, magiskt bra – tills det inte lĂ€ngre gör det.

AI som infrastruktur

Och ÀndÄ Àr det viktigt att sÀga att AI kommer att vara redo för företagsomfattande implementering nÀr vi börjar behandla det som infrastruktur, och inte som magi. Och dÀr det krÀvs mÄste det vara transparent, förklarligt och spÄrbart. Och om det inte Àr det, Àr det helt enkelt inte redo för företagsomfattande implementering för dessa anvÀndningsfall. Om AI fattar beslut bör det finnas pÄ er styrelses radar.

EU:s AI-lag leder an hÀr. HögriskomrÄden som rÀttsvÀsendet, hÀlso- och sjukvÄrden och infrastrukturen kommer att regleras som verksamhetskritiska system. Dokumentation, testning och förklarbarhet kommer att vara obligatoriska.

Vad företagssÀkra AI-modeller gör

Företag som specialiserar sig pÄ att bygga företagssÀkra AI-modeller fattar ett medvetet beslut att bygga AI annorlunda. I deras alternativa AI-arkitekturer trÀnas inte sprÄkmodellerna pÄ data, sÄ de Àr inte "kontaminerade" med nÄgot oönskat i data, sÄsom partiskhet, IP-intrÄng eller benÀgenhet att gissa eller hallucinera.

SĂ„dana modeller "fullbordar inte din tanke" – de resonerar utifrĂ„n anvĂ€ndarens innehĂ„ll... Deras kunskapsbas. Deras dokument. Deras data. Om svaret inte finns dĂ€r, sĂ€ger dessa modeller det. Det Ă€r det som gör sĂ„dana AI-modeller förklarbara, spĂ„rbara, deterministiska och ett bra alternativ pĂ„ platser dĂ€r hallucinationer Ă€r oacceptabla.

En 5-stegsstrategi för AI-ansvarstagande

  1. KartlĂ€gg AI-landskapet – Var anvĂ€nds AI i er verksamhet? Vilka beslut pĂ„verkar den? Vilken vikt lĂ€gger ni vid att kunna spĂ„ra dessa beslut tillbaka till transparent analys av tillförlitligt kĂ€llmaterial?
  2. Anpassa din organisation – Beroende pĂ„ omfattningen av er AI-implementering, upprĂ€tta roller, kommittĂ©er, processer och revisionspraxis som Ă€r lika rigorösa som de för finansiella risker eller cybersĂ€kerhetsrisker.
  3. Ta AI in i riskzonen pĂ„ styrelsenivĂ„ – Om din AI kommunicerar med kunder eller tillsynsmyndigheter hör den hemma i dina riskrapporter. Styrning Ă€r inte en sidoshow.
  4. Behandla leverantörer som medskyldiga – Om din leverantörs AI hittar pĂ„ saker, bĂ€r du fortfarande konsekvenserna. Utvidga dina principer för AI-ansvar till dem. KrĂ€v dokumentation, revisionsrĂ€ttigheter och SLA:er för förklarbarhet och hallucinationsfrekvens.
  5. TĂ„gskepticism – Ert team bör behandla AI som en junioranalytiker – anvĂ€ndbar, men inte ofelbar. Fira nĂ€r nĂ„gon identifierar en hallucination. Förtroende mĂ„ste förtjĂ€nas.

Framtiden för AI i företag Àr inte större modeller. Det som behövs Àr mer precision, mer transparens, mer förtroende och mer ansvarsskyldighet.

Joy Dasgupta Àr VD för gyan och en erfaren ledare inom AI-drivna lösningar med över tvÄ decenniers global ledarskapserfarenhet inom företag som Hewlett-Packard, American Express och Genpact.

Gyan Àr en fundamentalt ny AI-arkitektur byggd för företag med lÄg eller nolltolerans för hallucinationer, IP-risker eller energikrÀvande modeller. DÀr förtroende, precision och ansvarsskyldighet Àr viktigt sÀkerstÀller Gyan att varje insikt Àr förklarlig, spÄrbar till tillförlitliga kÀllor, med fullstÀndig datasekretess i centrum.