Tankeledere
Hvorfor Governed AI er arbeidsplassen neste grense

Vi tilbrakte et tiår med å kjempe mot skygge-IT. Uautoriserte SaaS-appar. Rogue-regneark. Ugodkjennte Dropbox-kontoer. IT-ledere bygget hele compliance-programmer rundt problemet, og de fleste av dem tapte likevel. Reco AI’s 2025 State of Shadow AI Report fant ut at bare 47% av SaaS-applikasjonene innen den gjennomsnittlige bedriften er formelt godkjent — og den gjennomsnittlige organisasjonen håndterer nå 490 av dem.
Dette var det gamle problemet. Det nye er verre.
Det skygge-IT-problem er annerledes denne gangen
Når en ansatt registrerer seg for en ugodkjent prosjektledelsesverktøy, er skaden begrenset. Et teams oppgaver ligger i feil sted. Kanskje noen data lekker ut. Typen datalekkasje er ganske forutsigbar.
AI er annerledes. Ansattene bruker nå AI-verktøy til å skrive kunde-kommunikasjon, generere finansielle rapporter, sammenfatte konfidensielle møter og bygge automatiserte arbeidsflyter, ofte uten å fortelle noen. Microsofts 2024 Work Trend Index fant ut at 78% av AI-brukerne bringer sine egne AI-verktøy til arbeidsplassen. Ikke fordi de prøver å være vanskelige eller skumle, men fordi verktøyene er genuint nyttige og de føler presset om å yte bedre. Likevel er deres organisasjoner for langsomme til å tilby prosesser, prosedyrer og verktøy.
Utdataene her er problemet. Når et AI-verktøy utkaster en kunde-kontrakt, sammenfatter en juridisk samtale eller genererer en kvartalsrapport til styret, er risikoen ikke bare “vi vet ikke hvilket verktøy de brukte.” Det er at datapratikker, nøyaktighet og beslutningstaking i disse utdataene er fullstendig usynlige for organisasjonen. Ingen har gjennomgått forespørselen. Ingen har validerert resultatet. Ingen vet ikke engang at det skjedde. Og fordi AI ser så sikker ut, vil de fleste brukerne ikke dobbeltsjekke kilder og blindt akseptere resultater.
KPMGs 2025-analyse av skygge-AI rapporterte at 44% av ansatte som bruker AI på arbeidsplassen har gjort det på måter som strider mot selskapets retningslinjer og politikker. Det er ikke en randatferd. Det er nesten halve arbeidsstokken.
Hvorfor autonome agenter gjør dette vanskeligere (og bedre)
Her er hvor samtalen blir interessant. Vi snakker ikke bare om ansatte som limter inn tekst i ChatGPT lenger. Vi går inn i epoken av AI-agenter — autonome systemer som kan kjøre kontinuerlig, utføre flertrinnsoppgaver, koble til bedriftsverktøy og ta handlinger uten at en menneske er i løkken for hver beslutning.
Deloittes 2025 Tech Trends-rapport beskriver dette som skiftet mot en “silikon-basert arbeidsstokk” og påpeker at mange tidlige agentic AI-implikasjoner feiler nettopp fordi organisasjoner prøver å automatisere eksisterende prosesser designet for mennesker i stedet for å tenke om hvordan arbeidet skal flyte.
Dette er grensen. Autonom AI kan gå to veier;
Veien én: mer skygge-IT, men verre. Ansattene spinner opp agenter ved hjelp av personlige kontoer, kjører på selskapets IT, kobler dem til selskapets verktøy via personlige API-nøkler, genererer utdata som ingen andre på laget kan se, kontrollere eller gjenskape. Agenten kjører en daglig rapport. Rapporten er feil. Ingen fanger det i uker fordi ingen andre visste det eksisterte. Dette er ikke hypotetisk. Det skjer nå i organisasjoner som behandler AI-tilpasning som en individuell produktivitetsleken.
Veien to: styrt autonomi. Samme agent kjører samme daglige rapport — men innen en miljø hvor laget kan se hva det gjør, hva data det berører, hvem satte det opp og hva det produserte. Agenten er delt, ikke isolert. Utdataene er synlige. Tillatelsene er begrensede. Og når noe går galt, er det en spor.
Forskjellen mellom disse to veiene er ikke teknologien. Det er miljøet.
Hva styrt AI faktisk ser ut som i praksis
Styring er ett av de ordene som får byggere til å skru seg. Det betyr vanligvis “langsomt”. Mer godkjenninger. Mer prosess. Mer friksjon mellom menneskene som gjør arbeidet og menneskene som håndterer risikoen.
Men styrt AI trenger ikke å fungere på den måten. De beste implementeringene jeg har sett deler noen karakteristika;
Synlighet som standard. Hver AI-generert utdata — hver rapport, hver varsling, hver utkast — er synlig for laget, ikke begravd i noen persons personlige chatthistorikk. Dette handler ikke om overvåking. Det handler om delt kontekst. Når en agent produserer en ukentlig konkurranseanalyse, skal hele laget kunne se det, spørre om det og bygge på det.
Begrensede tillatelser, ikke blanket-tillatelser. En agent som overvåker feilloggene dine trenger ikke tilgang til CRM-en din. En agent som utkaster sosialt innhold trenger ikke tilgang til finansielle data. Prinsippet om minst privilegier er ikke nytt. Det er bare sjelden brukt til AI-systemer — og det burde det være.
Spor som faktisk eksisterer. McKinseys playbook på agentic AI-sikkerhet fremhever at autonome agenter presenterer “en rekke nye og komplekse risikoer og sårbarheter som krever oppmerksomhet og handling nå.” En av de mest grunnleggende: hvis du ikke kan spore hva en agent gjorde, hva data det aksesserte og hva beslutninger det tok, kan du ikke styre det. Full stopp.
Lag-nivåkontroll, ikke bare IT-nivåkontroll. Dette er det styre-rammeverkene vanligvis får galt. De sentraliserer all AI-kontroll i IT eller sikkerhet, som skaper den eksakte flaskehalsen som driver skygge-AI i første omgang. Organisasjonene som får dette rett, skyver kontrollen til lag-nivå — lar ledere og lagledere konfigurere, begrense og overvåke agentene deres lag bruker, innenfor rammer som IT setter, men ikke må mikro-håndtere.
Hvor organisasjoner får det rett
Selskapene som deployer AI-agenter godt, er ikke de med de mest sofistikerte modellene. De er de med de klareste driftsgrensene.
Jeg ser de sterkeste resultater i tre områder;
Rapportering og overvåking. Agenter som kjører planlagte rapporter — daglige oppdateringer, ukentlige metrikksummerier, feilloggdigest — og leverer dem direkte til lagkanalene. Verdien her er ikke bare automatisering. Det er konsistent. Rapporten kjører hver morgen, uansett om noen husker å hente data eller ikke. Og fordi det er synlig for laget, fanges feil raskere.
Innhold og kommunikasjonsflyter. Utkast, ikke publisering. Agenter som produserer første utkast av interne oppdateringer, møtesammenslåinger eller utgående innhold — og overfører dem til menneskelig gjennomgang. Styre-delen er viktig her fordi kvalitetsbaren er annerledes når utdataene går til en kunde i stedet for en intern Slack-kanal.
Analyse og varsling. Agenter som overvåker dashboards, flagger anomalier og skyter varslinger når metrikker faller utenfor forventede områder. Dette erstatter “noen burde se på dette”-problemet som plager hver enkelt lag som noensinne har mistet en helg til en umerket produksjonsproblematikk.
Hva de fleste organisasjoner fortsatt gjør feil
Den største feilen er å behandle AI-styring som et politisk problem i stedet for et infrastrukturproblem.
Du kan skrive så mange godkjenningspolitikker du vil. Hvis dine ansatte ikke har en godkjent, brukervennlig miljø for å deployere AI som faktisk fungerer for deres daglige behov, vil de route rundt din politikk. Det er ikke et menneske-problem. Det er et design-problem.
IDCs analyse av skygge-AI gjør dette poenget tydelig: stealth AI-produktivitet er “strangling enterprise AI-tilpasning” fordi organisasjoner er fanget mellom å ønske gevinstene og å frykte risikoen. Resultatet er inaktivitet — som er den verste mulige utfallet, fordi det garanterer ukontrollert tilpasning.
Den andre feilen er å behandle styring og hastighet som motsetninger. De er det ikke. De best-styrte AI-miljøene er også de raskeste — fordi lagene ikke bruker tid på å gjenskape arbeid som allerede eksisterer, feilsøke agenter de ikke kan se eller gjenbygge arbeidsflyter som brøt fordi noen forlot selskapet og deres personlige AI-konto fulgte med.
Grensen er miljøet, ikke modellen
Bransjens oppmerksomhet er festet på modell-kapasiteter. Større kontekstvinduer. Bedre resonnering. Multimodale inndata. Det betyr noe. Men for de fleste lagene som prøver å få arbeid gjort, er flaskehalsen ikke modellen. Det er miljøet modellen kjører i.
Kan laget se hva det gjør? Kan de kontrollere hva det aksesserer? Kan de dele hva det produserer? Kan de stole på at det fungerer med riktig data og riktige begrensninger?
Disse er infrastruktur-spørsmål, ikke modell-spørsmål. Og det er de som vil skille organisasjoner som får ekte, varig verdi fra AI fra de som bare legger til en ny lag med skygge-IT.
Grensen er ikke å bygge smartere modeller. Det er å bygge miljøer hvor smarte modeller faktisk kan fungere.












