Connect with us

Tankeledere

Skygge AI avslører en større svikt i AI-styring

mm
A professional woman in an office at night uses a laptop with a glowing, abstract digital interface floating in the air. The interface shows connected data nodes and windows, symbolizing the

I årevis har insider-risiko blitt rammet av verste-case-scenarier: malisøse ansatte, stjålet data og skader som ble oppdaget etter faktum. Denne rammen var alltid ufullstendig. I AI-alderen blir den aktivt unyttig.

De fleste insider-risiko begynner ikke med ondskap. De begynner med rutinearbeid: sammenfatte et dokument, svare på en kunde, akselerere en arbeidsflyt eller sende kode raskere. Mer og mer ofte innebærer disse hverdagsbeslutningene nå AI.

Det er derfor skygge AI er viktig. Broadt definert er skygge AI bruken av AI-verktøy, agenter eller automatiseringer utenfor godkjent bedriftsoversikt. I de fleste tilfeller prøver ansatte ikke å unngå politikk. De prøver å få jobben gjort. Det virkelige problemet er at styringen ikke har holdt tritt med hvordan arbeidet endrer seg.

Denne gapen er nå målbar. Ny Ponemon-forskning fant ut at 92% av organisasjonene sier at generativ AI har endret hvordan ansatte får tilgang til og deler informasjon, men bare 18% har fullstendig integrert AI-styring i insider-risikoprogrammer. AI er allerede innbygget i daglig arbeid. Oversikt er fortsatt i ferd med å holde tritt.

Skygge AI er ikke ett problem

En av de største feilene organisasjonene gjør, er å behandle skygge AI som ett enkelt, uniformt risiko. Det er det ikke.

Det er en meningsfylt forskjell på å bruke AI til å sammenfatte offentlig forskning, lime interne kontrakter inn i en godkjent assistent, og å la en AI-agent hente data eller utføre handlinger på tvers av bedriftssystemer. Risikoen endrer seg avhengig av sensitiviteten til dataene, nivået av autonomi og myndighet som er gitt til systemet.

Det er derfor blankettforbud sjelden fungerer. De tenderer til å drive atferd lenger ut av syne uten å håndtere de forholdene som gjorde atferden tiltrekkende fra først av. Men overforbudspolitikk er ingen bedre. Hvis alt er tillatt, blir styringen lite mer enn en papirøvelse.

En mer effektiv tilnærming er å skille mellom:

  • Lav-risikostøtte, der AI støtter rutinearbeid med begrenset eksponering
  • Høy-risikohåndtering av data, der sensitive opplysninger blir innført, transformert eller delt, og
  • Delegering av myndighet, der AI-systemer er tillatt å hente, orchestrere eller handle på tvers av tilkoblede miljøer.

Den siste kategorien markerer den virkelige skiftet.

Etterhvert som AI beveger seg beyond innholdsgenerering til henting, orkestrering og utførelse, endrer sikkerhetsproblemet seg. Problemet er ikke lenger bare om noen bruker et godkjent verktøy. Det er hva myndighet som er gitt til et system, hva data det kan få tilgang til, og hva det er tillatt å gjøre med den tilgangen.

AI-agenter blir mer tillitsfulle, mer tilkoblede og mer i stand til å handle uavhengig. Det er nettopp derfor tradisjonelle insider-risikomodeller begynner å vise sine begrensninger.

Hvorfor skygge AI med delegering av myndighet endrer risikomodellen

De fleste insider-risikomodeller ble bygget for å vurdere menneskelig atferd: forsømmelighet, misbruk, kompromiss eller ondskapsfull hensikt. Disse kategoriene er fortsatt viktige. De fanger bare ikke lenger det fullstendige bildet.

Det blir spesielt tydelig i skygge AI, der verktøyet eller agenten ikke nødvendigvis er sanktionert, sentralt styrt eller til og med synlig for organisasjonen. I disse tilfellene er risikoen ikke bare at en ansatt bruker AI. Det er at de kan bruke et brukerstyrt system med tilgang, autonomi eller integrasjoner som bedriften ikke fullstendig forstår.

I dag kan en person ha legitim tilgang og utstede hva som ser ut til å være en rutineinstruksjon. Men i en skygge AI-situasjon kan instruksjonen bli overført til et ikke-godkjent assistent, plug-in, agent eller arbeidsflyt som kan føre den videre, raskere eller bredere enn brukeren intenderte. Det er den virkelige konsekvensen av delegering av myndighet.

Mennesket forsyner intensjonen, tilgangen eller prompten. AI-systemet utfører med hastighet, skala og utholdenhet. Sammen kan de forsterke feil på måter legacy-kontroller aldri var designet til å inneholde.

Bekymringen er ikke at AI-systemer er ondskapsfulle. Det er at de kan operationalisere feilaktige instruksjoner, svak dømmekraft eller usikre arbeidsflyter med maskinhastighet. Og når systemet sitter utenfor godkjent oversikt, kan organisasjonen ha liten synlighet inn i hva data det berørte, hvor dataene gikk, hva handlinger som ble utført eller hvordan å gripe inn når noe går galt.

Det er hva som gjør delegering av myndighet innenfor skygge AI materiellet forskjellig fra vanlig ikke-godkjent verktøybruk. Problemet er ikke lenger begrenset til at en ansatt lime sensitive data inn i feil grensesnitt. Det utvides til ikke-godkjente systemer som henter informasjon, lenker oppgaver, kobler til bedriftsprogrammer og handler på brukerens vegne uten de retningslinjer som et godkjent miljø normalt ville påtvinge.

Det er derfor sikkerhetsteamene trenger en mer presis modell for insider-risiko: en som tar hensyn ikke bare til menneskelig atferd, men også til samspillet mellom menneskelig intensjon og maskin-utførelse.

Kosten av skygge AI er allerede synlig

Dette er ikke et fremtidig problem. Kosten er allerede synlig i nåværende insider-risikotrender.

Ponemon-forskning fra 2026 fant ut at kostnadene relatert til forsømmelighet innenfor insider-risiko økte med 17% fra år til år til 10,3 millioner dollar, og bidro til en total årlig insider-risikokostnad på 19,5 millioner dollar. Rapporten identifiserer skygge AI som en stor bidragsyter, og omdanner vanlig produktivitetsatferd til en varig kilde til data-eksponering.

Sensitive materialer blir innført i offentlige eller ikke-godkjente AI-verktøy. AI-notat-takere fanger konfidensielle møter. Agent-verktøy opererer med begrenset synlighet på tvers av miljøer som aldri var designet for dette nivået av autonom interaksjon.

Dette er vanligvis ikke ondskapsfulle handlinger. De er vanlige arbeidsplass-atferder som utvikler seg i systemer med svake retningslinjer og ufullstendig oversikt.

Det er hva som gjør skygge AI så betydelig. Det introduserer ikke bare en ny kategori risiko. Det øker skalaen, hastigheten og kosten av forsømmelighet ved å gjøre små feil lettere å gjenta og vanskeligere å oppdage.

Hvorfor forbud mot AI-verktøy ikke er svaret

AI-verktøy er nå for nyttige, for tilgjengelige og for innbygget i daglig arbeid til å håndteres gjennom forbud alene. Når organisasjonene bare forbinder, tenderer de til å drive bruken inn i mindre synlige kanaler.

En bedre respons starter med synlighet. Sikkerhetsteamene må forstå hvilke AI-verktøy som brukes, hva slags data som flyter inn i dem, hva slags utdata som genereres, og hvilke systemer som er tillatt å handle på brukerens vegne.

Like viktig er det at styringen må reflektere hvordan arbeidet faktisk skjer — ikke hvordan politikk antar at det skjer.

Det betyr å flytte AI-styring innenfor insider-risikostyring, i stedet for å behandle det som en separat compliance-initiativ. Hvis ansatte og AI-systemer begge får tilgang til, transformerer og flytter informasjon, hører de innenfor samme modell av synlighet, ansvar og kontroll.

Organisasjonene som får dette rett, vil ikke være de som forbinder flest verktøy. De vil være de som kan klart skille hvor ansvarlig eksperimentering slutter og materiel eksponering begynner.

Skygge AI er ikke et midlertidig styringsproblem. Det er en tidlig advarsel om at arbeidet har endret seg raskere enn oversikten. Utfordringen nå er ikke å sakke ned bedriften. Det er å anvende samme disiplin som forbedret insider-risikostyring til en ny operativ virkelighet — en hvor menneskelig dømmekraft og maskin-utførelse stadig arbeider side om side.

Rajan Koo er CTO og leder av DTEX’s Insider Investigations & Intelligence (i3) team. Han er ansvarlig for å utvikle, implementere og drifte teknologier for å forhindre at interne risikoer blir til interne trusler. Rajan har spilt en avgjørende rolle i å etablere DTEX’s privatlivsvennlig tilnærming til interne risikostyring. Han har også ledet flere høyprofilerte interne trusselundersøkelser som har resultert i vellykkede rettssaker og frikkelser.