Connect with us

Tankeledere

Det AI-pålidelighedsproblem, som ingen vil tale om

mm

Den dominerende narrative om AI-pålidelighed er simpel: modeller hallucinerer. Derfor skal modellerne forbedres, så virksomheder kan få mest mulig udbytte af dem. Flere parametre. Bedre træningsdata. Mere forstærket læring. Mere alignment.

Og alligevel, selvom frontier-modellerne bliver mere kapable, nægter debatten om pålidelighed at forsvinde. Virksomhedsledere tøver stadig med at lade agenter tage meningsfulde handlinger inden for kernesystemer. Bestyrelserne spørger stadig: “Kan vi stole på det?”

Men hallucinationer er ikke primært et modelproblem. De er et kontekstproblem. Vi beder AI-systemer om at operere på virksomhedsinfrastruktur uden at give dem den strukturelle synlighed, der kræves for at kunne grunde sig sikkert. Så skyder vi modellen, når den gætter.

Det virkelige pålidelighedsgap ligger ikke i vægtene, men i informationslaget.

En kirurg uden billeddiagnostik

Forestil dig en kirurg, der opererer uden billeddiagnostik. Ingen MRI. Ingen CT-scan. Ingen realtidsvisualisering af omgivende væv. Kun en generel forståelse af anatomi og en skalpel. Selv den mest dygtige kirurg ville være tvunget til at gætte. Til at approksimere. Til at stole på sandsynlighedsbaseret resonnering.

Det er, hvad virksomheds-AI-agenter gør lige nu.

Når et AI-system bedes om at ændre en arbejdsgang, opdatere en ERP-regel eller udløse automation på tværs af værktøjer, har det sjældent en fuldstændig afhængighedsgraf af miljøet. Det kender ikke til, hvilket “ubrugt” felt driver en downstream-dashboard. Det ser ikke, hvilken automation referencer til valideringsreglen. Det kan ikke pålideligt simulere andenordens påvirkning.

Så gør det, hvad store sprogmodeller er trænet til at gøre: det forudsiger. Forudsigelse er ikke forståelse. Og forudsigelse uden strukturel kontekst ligner hallucination.

Vi rammer den forkerte debat

AI-samfundet har været låst i en modelcentrisk pålidelighedsdebat. Artikler om skala-love. Forskning i kæde af tanker-prompting. Retrieval-augmenteringsteknikker. Evaluationsbenchmarks.

Alt nødvendigt. Alt værdifuldt. Men læg mærke til, hvad der mangler: diskussion af virksomhedssystemtopologi.

Pålidelighed i en virksomhedskontekst betyder ikke blot “modellen genererer korrekt tekst.” Det betyder “systemet foretager ændringer, der er sikre, sporbare og forudsigelige.”

Det er et fundamentalt anderledes krav.

Når OpenAI og Anthropic publicerer evalueringer af modelpræstation, måler de nøjagtighed på resonanstasks, kodningsbenchmarks eller viden-genkald. Disse er nyttige signaler. Men de måler ikke en AI-agents evne til sikkert at ændre et live-revenusystem med 15 års akkumuleret automatiseringsgæld.

Problemet er ikke, om modellen kan skrive syntaktisk korrekt kode; det er, om AI forstår miljøet, som koden deployes i.

Levende systemer akkumulerer entropi

Virksomhedssystemer er ikke statiske databaser. De er levende systemer. Hver ny integration efterlader et spor. Hver kampagne introducerer et felt. Hver “hurtig løsning” introducerer et ekstra lag af automation. Over tid interagerer disse lag på måder, som ingen enkelt person fuldt ud forstår.

Dette er en funktion af vækst. Komplekse adaptive systemer akkumulerer naturligt entropi. Forskning fra MIT’s Sloan School har længe hævdet, hvordan informationsasymmetri inden for organisationer kompenserer operationel risiko. Imens estimerer Gartner, at dårlig datakvalitet koster organisationer i gennemsnit $12,9 millioner om året.

Forestil dig nu at indsætte autonome agenter i dette miljø uden at adressere dets strukturelle uigennemsigtighed.

Vi burde ikke være overraskede, når resultaterne føles uforudsigelige. Agenten er ikke ondsindet eller dum. Den er blind. Den bygger i mørket.

Retrieval er ikke nok

Nogle vil argumentere for, at retrieval-augmenteret generation (RAG) løser dette problem. Giv modellen adgang til dokumentation. Fodre den med skemabeskrivelser. Tilslut den til API’er.

Det hjælper.

Men dokumentation er ikke topologi.

En PDF, der forklarer, hvordan en arbejdsgang “skal” fungere, er ikke det samme som en realtidsgraf af, hvordan den faktisk interagerer med 17 andre automatiseringer.

Virksomhedsrealiteten matcher sjældent virksomhedsdokumentationen.

En studie fra 2023, der blev offentliggjort i Communications of the ACM, fandt, at forældet dokumentation er en primær bidragsyder til softwarefejl.

Systemer udvikler sig hurtigere end deres narrativer.

Så selv når vi giver AI-agenter dokumentation, giver vi dem ofte en partiell eller idealiseret kort.

Den agente lag er den virkelige sikkerheds lag

Vi tenderer til at tænke på sikkerhed som alignment-træning, sikkerhedsforanstaltninger, red-teaming og politikfilter. Alt vigtigt. Men i virksomheds kontekst er sikkerhed kontekstuel. Det handler om at kende:

  • Hvad afhænger af dette felt?
  • Hvad automation referencer til dette objekt?
  • Hvilke downstream-rapporter vil bryde?
  • Hvem ejer denne proces?
  • Når blev dette sidst ændret?
  • Hvilke historiske ændringer forudgik den nuværende konfiguration?

Uden dette lag er en AI-agent effektivt improviserende inden for en sort boks. Med dette lag kan den simulere påvirkning før handling. Forskellen mellem hallucination og pålidelighed er ofte synlighed.

Hvorfor modellen får skylden

Hvorfor fokuserer debatten så meget på modellerne? Fordi modellerne er læselige. Vi kan måle forvirring. Vi kan sammenligne benchmark-score. Vi kan offentliggøre skala-kurver. Vi kan debattere kvaliteten af træningsdataene.

Informations-topologi inden for virksomheder er langt, langt mere rod. Det kræver tværfaglig koordination. Det kræver disciplin i styring. Det tvinger organisationer til at konfrontere den akkumulerede kompleksitet i deres egne systemer.

Det er lettere at sige “modellen er ikke klar” end at indrømme “vores infrastruktur er uigennemsigtig.”

Men når AI-agenter bevæger sig fra indholdsgenerering til operationel eksekvering, bliver denne ramme farlig.

Hvis vi behandler pålidelighed kun som et modelvalgsøvelse, vil vi fortsætte med at deployere agenter i miljøer, de ikke kan meningsfuldt opfatte.

Autonomi kræver kontekst

Anthropics seneste eksperimenter med multi-agent softwareudviklingsteam viser, at AI-systemer kan koordinere på tværs af komplekse opgaver, når de får strukturel kontekst og varig hukommelse. Kapacitetsgrænsen udvikler sig hurtigt. Men denne form for autonomi uden miljøbevidsthed er skrøbelig.

En selvstyrende bil afhænger ikke kun af et kraftfuldt neuralt netværk. Den afhænger af lidar, kameraer, kortsystemer og realtids-miljøsansning. Modellen er ét lag i en bredere perceptionsstak.

Virksomheds-AI har brug for en tilsvarende “lidar”. Ikke kun API-adgang. Ikke kun dokumentation. Men en struktureret, dynamisk forståelse af systemafhængigheder.

Indtil det eksisterer, vil debatter om hallucination fortsætte med at misdiagnosticere rodårsagen.

Den skjulte risiko: Overfortrolighed

Der er en anden subtil risiko i den nuværende ramme.

Når modellerne forbedres, bliver deres output mere flydende, mere overbevisende, mere autoritativ.

Flydende forstærker overfortrolighed.

Når en agent med sikkerhed ændrer et system uden fuld kontekst, er fejlen ikke umiddelbart åbenbar. Den kan dukke op uger senere som en rapporteringssammenfald, en compliance-lucke eller en revenue-forecast-fejl. Fordi modellen ser kompetent ud, kan organisationer overvurdere dens operationelle sikkerhed. Den virkelige fejlmode er plausibel fejlregning.

Og plausibel fejlregning trives i mørket.

Omramning af pålidelighedsspørgsmålet

I stedet for at spørge: “Er modellen god nok?” Skal vi spørge: “Har agenten tilstrækkelig strukturel kontekst til at handle sikkert?” I stedet for at måle benchmark-nøjagtighed, skal vi måle miljøsynlighed. I stedet for at debattere parameterantal, skal vi gennemgå systemuigennemsigtighed.

Den næste front i AI-pålidelighed er ikke kun større modeller. Det er rigere kontekstlag.

Dette inkluderer:

  • Afhængighedsgrafer af virksomhedssystemer
  • Realtids ændringssporing
  • Ejerskabskortlægning
  • Historisk konfigurationsbevidsthed
  • Påvirkningssimulation før eksekvering

Ingenting af dette er glamourøst. Ingenting af dette er tendenser på sociale medier. Men her vil pålidelighed blive vundet.

Bygning med lys

Virksomhedsledere har ret i at kræve pålidelighed, før de giver agenter operationel myndighed. Men vejen frem er ikke at vente på en mytisk hallucinationsfri model.

Det er at investere i synlighedsinfrastrukturen, der gør intelligent handling mulig.

Vi ville ikke tillade en junior-administrator at ændre produktions-systemer uden at forstå afhængigheder. Vi burde ikke tillade AI-agenter at gøre det heller.

Målet? At reducere blindspots.

Når agenter opererer med strukturel bevidsthed, falder hallucinationsrater ikke, fordi modellen ændrede sig, men fordi gætningsoverfladen krymper.

Forudsigelse bliver resonnering. Resonnering bliver simulation. Simulation bliver sikker eksekvering.

Den uundgåelige skift

Over de næste fem år vil AI-stakken splitte sig. Et lag vil fokusere på modelkapacitet: resonansdybde, multimodal flydende, omkostningseffektivitet. Det andet lag vil fokusere på informations-/kontekstuel topologi: systemgrafer, metadata-intelligens, styringsrammer.

Organisationer, der behandler pålidelighed kun som en modelvalgsøvelse, vil have svært.

Organisationer, der behandler pålidelighed som en arkitektonisk egenskab, vil bevæge sig hurtigere med mindre risiko.

Hallucinationsdebatten vil se latterlig ud i retrospektiv. Den virkelige historie vil være om synlighed.

AI er ikke instrinsisk uforsigtigt.

Det opererer i et mørkt rum.

Indtil vi adresserer det, bygger vi ikke intelligente systemer. Vi bygger kraftfulde forudsigere inden for uigennemsigtige miljøer.

Og det betyder, på trods af al fremgang, AI bygger stadig i mørket.

Ido Gaver er administrerende direktør og medstifter af Sweep, hvor han leder forskning og produktstrategi ved skæringen af AI, metadataarkitektur og virksomhedsstyring. Hans arbejde handler om at aktivere agente AI-systemer til at fungere sikkert og kontekstuelt inden for store virksomhedssoftwareøkosystemer.