Connect with us

Tankeledere

Det AI-pålitelighetsproblemet ingen vil snakke om

mm

Den dominerende narrativen om AI-pålitelighet er enkel: modeller hallucinerer. Derfor må modellene forbedres for at selskaper skal få mest nytte av dem. Flere parametre. Bedre treningdata. Mer forsterkingslæring. Mer alignering.

Og likevel, selv om frontier-modellene blir mer kapable, nektar pålitelighetsdebatten å forsvinne. Bedriftsledere tøver fortsatt med å la agenter ta meningfulle handlinger innenfor kjernsystemer. Styrene spør fortsatt: “Kan vi stole på det?”

Men hallucinasjoner er ikke primært et modellproblem. De er et kontekstproblem. Vi ber AI-systemer om å operere på bedriftsinfrastruktur uten å gi dem den strukturelle visningen som er nødvendig for å kunne grunne trygt. Så skylder vi modellen når den gjetter.

Det virkelige pålitelighetsgapet ligger ikke i vekterne, men i informasjonslaget.

En kirurg uten bilde

Forestall en kirurg som opererer uten bilde. Ingen MRI. Ingen CT-skann. Ingen sanntidsvisualisering av omgivende vev. Bare en generell forståelse av anatomi og en skalpel. Selv den mest dyktige kirurgen ville bli tvunget til å gjette. Å approksimere. Å stole på sannsynlighetsgrunn.

Det er det som bedrifts-AI-agenter gjør nå.

Når en AI-system blir bedt om å modifisere en arbeidsflyt, oppdatere en ERP-regel eller utløse automatisering over verktøy, har den sjelden en full avhengighetsgraf av miljøet. Den vet ikke hvilket “ubrukt” felt som driver en nedstrømsdashbord. Den ser ikke hvilken automatisering som refererer til den valideringsregelen. Den kan ikke pålitelig simulere annenordens påvirkning.

Så gjør den det som store språkmodeller er trent til å gjøre: den prediker. Prediksjon er ikke forståelse. Og prediksjon uten strukturell kontekst ser ut som hallucinasjon.

Vi rammer feil i debatten

AI-samfunnet har vært låst i en modell-sentrert pålitelighetsdiskusjon. Artikler om skaleringslover. Forskning på tankerekke-prompting. Gjenhentingsteknikker. Evalueringsskalaer.

Alt nødvendig. Alt verdifullt. Men legg merke til hva som mangler: diskusjon om bedriftssystemtopologi.

Pålitelighet i en bedriftskontekst betyr ikke bare “modellen genererer korrekt tekst.” Det betyr “systemet gjør endringer som er trygge, sporbare og forutsigbare.”

Det er et fundamentalt annet krav.

Når OpenAI og Anthropic publiserer evalueringer av modellprestasjon, måler de nøyaktighet på grunningsoppgaver, kodebenchmarks eller kunnskapsrekall. Disse er nyttige signaler. Likevel måler de ikke en AI-agents evne til å trygt modifisere et live-revenysystem med 15 års akkumulert automatiseringsgjeld.

Problemet er ikke om modellen kan skrive syntaktisk korrekt kode; det er om AI forstår miljøet som koden deployes inn i.

Levende systemer akkumulerer entropi

Bedriftssystemer er ikke statiske databaser. De er levende systemer. Hver ny integrasjon etterlater et spor. Hver kampanje introduserer et felt. Hver “rask løsning” introduserer en ekstra lag med automatisering. Over tid interagerer disse lagene på måter som ingen enkelt person fullstendig forstår.

Dette er en funksjon av vekst. Komplekse adaptive systemer akkumulerer naturlig entropi. Forskning fra MITs Sloan School har lenge fremhevet hvordan informasjonsasymmetri innenfor organisasjoner kompenserer operasjonell risiko. I mellomtiden estimerer Gartner at dårlig datakvalitet koster organisasjoner i gjennomsnitt $12,9 millioner per år.

Forestall å injisere autonome agenter inn i dette miljøet uten å adresse dens strukturelle uklarhet.

Vi bør ikke være overrasket når resultater føles uforutsigbare. Agenten er ikke ondsinnet eller dum. Den er blind. Den bygger i mørket.

Gjenhenting er ikke nok

Noen vil hevde at gjenhentingsforbedret generering (RAG) løser dette problemet. Gi modellen tilgang til dokumentasjon. Mat den med skjemabeskrivelser. Koble den til API-er.

Det hjelper.

Men dokumentasjon er ikke topologi.

En PDF som forklarer hvordan en arbeidsflyt “skal” operere, er ikke det samme som en sanntidsgraf av hvordan den faktisk interagerer med 17 andre automatiseringer.

Bedriftsrealiteten matcher sjelden bedriftsdokumentasjonen.

En studie fra 2023 som ble publisert i Communications of the ACM fant at foreldet dokumentasjon er en primær bidragsyter til programvarevedlikeholdsfeil. Systemer utvikler seg raskere enn deres narrativer.

Så selv når vi gir AI-agenter dokumentasjon, gir vi dem ofte en delvis eller idealisert kart.

Delvis kart produserer fortsatt selvsikre feil.

Den agente laget er den virkelige sikkerhetslaget

Vi tenderer til å tenke på sikkerhet som aligneringstrening, vegger, rødteam, og politifiltre. Alt viktig. Men i bedriftskontekst er sikkerhet kontekstuell. Det handler om å vite:

  • Hva avhenger av dette feltet?
  • Hva automatisering refererer til dette objektet?
  • Hvilke nedstrømsrapporter vil bryte?
  • Hvem eier denne prosessen?
  • Når ble denne sist endret?
  • Hva historiske endringer førte til den nåværende konfigurasjonen?

Uten dette laget er en AI-agent effektivt improviserende innenfor en svart boks. Med dette laget kan den simulere påvirkning før den handler. Forskjellen mellom hallucinasjon og pålitelighet er ofte synlighet.

Hvorfor modellen får skylden

Hvorfor fokuserer debatten så tungt på modeller? Fordi modeller er leselige. Vi kan måle forvirring. Vi kan sammenligne benchmark-poeng. Vi kan publisere skaleringskurver. Vi kan debattere kvaliteten på treningdataene.

Informasjonstopologi innenfor bedrifter er mye, mye mer uoversiktlig. Det krever tverrfaglig koordinering. Det krever styringsdisiplin. Det tvinger organisasjoner til å konfrontere den akkumulerte kompleksiteten i deres egne systemer.

Det er enklere å si “modellen er ikke klar” enn å innrømme “vår infrastruktur er uklar.”

Men når AI-agenter flytter fra innholdsgenerering til operasjonell eksekvering, blir denne rammen farlig.

Hvis vi behandler pålitelighet bare som et modellvalg, vil vi fortsette å deployere agenter inn i miljøer de ikke kan meningsfullt oppfatte.

Autonomi krever kontekst

Anthropics nylige eksperimenter med multi-agent programvareutviklingsteam viser at AI-systemer kan koordinere over komplekse oppgaver når de får strukturell kontekst og varig minne. Kapasitetsfronten utvikler seg raskt. Men denne typen autonomi uten miljøbevissthet er skjør.

En selvstyrt bil er ikke avhengig bare av et kraftig neuralt nettverk. Den avhenger av lidar, kameraer, kartleggingssystemer og sanntidsmiljøsensing. Modellen er ett lag innenfor en bredere persepsjonsstakken.

Bedrifts-AI trenger en ekvivalent til lidar. Ikke bare API-tilgang. Ikke bare dokumentasjon. Men en strukturert, dynamisk forståelse av systemavhengigheter.

Før det eksisterer, vil debatter om hallucinasjon fortsette å misdiagnosere årsaken.

Den skjulte risiken: Overmot

Det er en annen subtil risiko i den nåværende rammen.

Når modeller blir bedre, blir deres utdata mer flytende, mer overbevisende, mer autoritative.

Flytthet forsterker overmot.

Når en agent trygt modifiserer et system uten full kontekst, er feilen ikke umiddelbar åpenbar. Den kan dukke opp uker senere som en rapporteringsdiskrepans, en kompatibilitetsgap eller en prognosefeil for omsetning. Fordi modellen ser kompetent ut, kan organisasjoner overvurdere dens operasjonelle sikkerhet. Den virkelige feilmodusen er plausibel feilregning.

Og plausibel feilregning trives i mørket.

Omramming av pålitelighetsproblemet

I stedet for å spørre: “Er modellen god nok?” Bør vi spørre: “Har agenten tilstrekkelig strukturell kontekst til å handle trygt?” I stedet for å måle benchmark-nøyaktighet, bør vi måle miljøsynlighet. I stedet for å debattere parameterantall, bør vi granske systemuklarhet.

Neste frontier av AI-pålitelighet er ikke bare større modeller. Det er rikere kontekstlag.

Dette inkluderer:

  • Avhengighetsgrafer av bedriftssystemer
  • Sanntidsendringssporings
  • Eierskapskartlegging
  • Historisk konfigurasjonsbevissthet
  • Påvirkningssimulering før eksekvering

Ingenting av dette er glamorøst. Ingenting av dette trendet på sosiale medier. Men dette er hvor pålitelighet vil bli vunnet.

Bygging med lysene på

Bedriftsledere er rett i å kreve pålitelighet før de gir agenter operasjonell myndighet. Men veien fremover er ikke å vente på en mytisk hallucinasjonsfri modell.

Det er å investere i synlighetsinfrastrukturen som gjør intelligent handling mulig.

Vi ville ikke la en junior-administrator endre produksjonssystemer uten å forstå avhengigheter. Vi bør ikke la AI-agenter gjøre det heller.

Målet? Å redusere blindsoner.

Når agenter opererer med strukturell bevissthet, synker hallucinasjonsraten ikke fordi modellen endret seg, men fordi gjettflaten krymper.

Prediksjon blir grunn. Grunn blir simulering. Simulering blir trygg eksekvering.

Den uunngåelige skiftet

Over de neste fem årene vil AI-staken splittes. Et lag vil fokusere på modellkapasitet: grunningsdybde, multimodal flytthet og kosteffektivitet. Det andre laget vil fokusere på informasjonell/kontekstuell topologi: systemgrafer, metadataintelligens og styringsrammer.

Organisasjoner som behandler pålitelighet bare som et modellvalg, vil streve.

Organisasjoner som behandler pålitelighet som en arkitektonisk egenskap, vil bevege seg raskere med mindre risiko.

Hallucinasjonsdebatten vil se latterlig ut i etterkant. Den virkelige historien vil være om synlighet.

AI er ikke innebredt uansvarlig.

Det opererer i et mørkt rom.

Før vi adresserer det, bygger vi ikke intelligente systemer. Vi bygger kraftige prediktorer innenfor uklare miljøer.

Og det betyr, til tross for all fremgang, at AI fortsatt bygger i mørket.

Ido Gaver er administrerende direktør og medgrunnlegger av Sweep, der han leder forskning og produktstrategi på grensen mellom AI, metadata-arkitektur og bedriftsstyring. Hans arbeid handler om å muliggjøre agente AI-systemer å operere trygt og kontekstuell innenfor store bedriftsprogramvareøkosystemer.