Connect with us

Den AI-risiko, som ingen overvåger: Hemmelighedsexponering i virksomhedsworkflows

Tankeledere

Den AI-risiko, som ingen overvåger: Hemmelighedsexponering i virksomhedsworkflows

mm

De fleste diskussioner om virksomheds AI-risici begynder med en velkendt bekymring: Medarbejdere, der indsætter kundedata i chatbots. Privatliv og reguleringsmæssig eksponering dominerer overskrifter og bestyrelsesmøder, og forskning fra Deloitte viser, at dataprivatliv og -sikkerhed er blandt de øverste AI-risici, som organisationer er bekymrede for.

Dog fortæller data fra virksomheders virkelige brug af AI en anden historie. Den mest almindelige følsomme information, der flyder ind i AI-værktøjer, er ikke persondata, men hemmeligheder og legitimationsoplysninger.

API-nøgler, adgangstokens, webhooks og godkendelsesartefakter udgør nu den største andel af følsomme dataeksponeringer, der observeres i AI-prompts. Disse afsløringer skyldes sjældent uagtsomhed eller ondsindet hensigt, men opstår i stedet fra rutinemæssig arbejde såsom fejlfinding af en mislykket integration, fejlfinding af automatisering, kodetest eller løsning af en kundeproblem. Da AI bliver integreret i daglige workflows, sker disse øjeblikke konstant og ofte uden for traditionelle sikkerhedscontrollers synsfelt.

Konsekvenserne er klare. Da AI-adoptionsudvidelsen udvides, får organisationerne en mere præcis vurdering af, hvor de virkelige risici opstår, og styring må udvikles for at imødekomme dem.

En overset AI-dataeksponeringsrisiko gemmer sig i åben lys

En ny AI-anvendelsesanalyse gennemført af Nudge Security undersøgte anonymiseret telemetri på tværs af virksomhedsmiljøer for at forstå, hvordan AI-værktøjer faktisk bruges på arbejdspladsen. I stedet for at basere sig på undersøgelser eller selvrapportering analyserede forskningen observeret AI-aktivitet, integrationer og promptadfærd på tværs af virksomhedens SaaS-økosystemer.

Forskningen giver ny indsigt i, hvor AI-risiko faktisk opstår i virksomhedsbrug. Følsomme dataeksponeringer i AI-prompts domineres af operationelle legitimationsoplysninger. Hemmeligheder og legitimationsoplysninger udgør ca. 48 procent af detekterede følsomme datahændelser, sammenlignet med 36 procent for finansielle data og 16 procent for sundhedsrelaterede oplysninger. Disse mønstre antyder, at den mest betydelige AI-dataeksponeringsudfordring ikke er privatlivslækage, men hemmelighedsspredning.

Den samme forskning viser, at AI-adoptionsudvidelsen er gået ud over eksperimenter. AI-værktøjer er integreret i workflows, integreret med kerneforretningsplatforme og i stigende grad i stand til at udføre selvstændige handlinger. Core large language model-udbydere er nu næsten ubetydelige, med OpenAI til stede i 96 procent af organisationerne og Anthropic i 78 procent.

Forskning fra McKinsey finder, at 88 procent af organisationerne rapporterer om hyppig AI-brug i mindst én forretningsfunktion, sammenlignet med 78 procent for et år siden. Mødeintelligensværktøjer, AI-assisterede kodningsplatforme, præsentationsgenerering og taleteknologier er bredt udbredt, hvilket afspejler, hvordan AI har udvidet sig fra chatgrænseflader til daglige workflows. Denne udvidelse er vigtig, fordi risiko følger brug. Da AI bliver integreret i udviklermiljøer, samarbejdsplatforme og kundesupportworkflows, får det nærhed til følsomme systemer og operationelle data.

Adoptionsudvidelsen er også blevet drevet fra bunden og op. En ny KPMG-undersøgelse fandt, at 44 procent af medarbejderne bruger AI-værktøjer på måder, som deres arbejdsgivere ikke har godkendt, hvilket afspejler, hvor hurtigt disse værktøjer kommer ind i daglige workflows. Medarbejdere installerer browser-udvidelser, tilslutter assistenter og eksperimenterer med integrationer for at accelerere daglige opgaver, ofte uden for centraliserede indkøbsprocesser. Sikkerhedsanalytikere beskriver dette mønster som shadow AI, hvor værktøjer opererer inden for browsere og SaaS-workflows uden for traditionel IT-synsfelt. Fordi disse værktøjer kan installeres øjeblikkeligt og kræver lidt teknisk opsætning, kæmper styringsprogrammer bygget op omkring godkendelsesprocesser og acceptabel brugspolitik for at følge med, hvordan AI faktisk introduceres og bruges på tværs af virksomheden.

Hvorfor lækkede hemmeligheder kan skabe øjeblikkelig operationel risiko

Persondata er følsomt og reguleret, men hemmeligheder har øjeblikkelig operationel indvirkning. Et lækket API-nøgle kan give adgang til produktionsystemer. En kompromitteret token kan eksponere repositories. En webhook-URL kan aktivere uautoriseret automatisering. Legitimationsoplysninger dukker ofte op i AI-prompts under rutinemæssigt arbejde. Udviklere indsætter tokens i chatgrænseflader, mens de fejlfinder godkendelsesfejl, og ingeniører kan dele konfigurationsstykker for at diagnosticere integrationsproblemer. Disse handlinger er ikke usædvanlige. Hemmeligheder er integreret i tekniske workflows og dukker op i logfiler, scripts, konfigurationsfiler og automatiseringsoutput. Når holdene er under pres for at løse problemer hurtigt, kan de dele disse artefakter uden at tænke over, hvilke følsomme data de indeholder.

AI-grænseflader forstærker denne adfærd. Prompts opmuntrer til kontekstdeling. Filupload støtter mere omfattende fejlfinding. Integreret workflows gør det let at flytte data mellem systemer. Nudge Securitys forskning fandt, at 17 procent af prompts indeholder copy- og paste-aktivitet eller filupload. I denne kontekst kan følsomme legitimationsoplysninger eksponeres på få sekunder.

Traditionel styring overser adfærdsrisiko

AI-styringsprogrammer fokuserer ofte på formelle kontroller såsom politikker og godkendte værktøjer. Dette tilgang antager, at risiko stammer fra misbrug eller modeladfærd. I praksis opstår de mest betydelige eksponeringer under rutinemæssigt arbejde udført af velmenende medarbejdere.

AI-landskabet udvikler sig hurtigt, med nye teknologier udgivet dagligt. Da dine medarbejdere når efter det seneste værktøj, kan de omgå den traditionelle tilgang med netværkskontroller, fordi de simpelthen ikke kan følge med. Browseren giver mulighed for direkte observation af kontekstuel adfærd, hvilket giver den fleksibilitet, der er nødvendig for at følge med det konstant udviklende landskab af moderne arbejde.

Denne afkobling forklarer, hvorfor organisationer kan implementere stærke politikker og alligevel opleve følsomme dataeksponering. Politikker etablerer forventninger. Adfærd bestemmer resultater. Effektiv styring kræver indsigt i, hvordan AI-værktøjer faktisk bruges, og guardrails, der vejleder sikrere beslutninger i det øjeblik, data deles.

Integrationer og agenter udvider eksponeringsomfanget

Risikoprofilen for et AI-værktøj formas af, hvad det kan få adgang til. Integrationer skaber tillidsfulde forbindelser mellem systemer. OAuth-godkendelser, API-tokens og servicekonti giver AI-værktøjer mulighed for at hente dokumenter, opdatere billetter eller interagere med koderepositories. Forskning i virksomheds AI-adoptionsudvidelse fremhæver, at integrationer effektivt definerer eksponeringsomfanget. En miskonfigureret tilladelse eller kompromitteret token kan eksponere hele dokumentrepositories eller udviklingsmiljøer, fordi tillidsfulde forbindelser giver mulighed for dataforskydning i maskinehastighed.

Agentbaseret AI introducerer yderligere kompleksitet. Tidlige installationer prioriterer ofte funktionalitet over mindst privilegie. Tilladelser, der gives under eksperimenter, kan fortsætte langt efter den oprindelige brugsærinstitution. Over tid skaber disse akkumulerede tilladelser stille risiko. Sikkerhedsteams skal behandle integrationer og agenttilladelser som varige adgangsbeslutninger og ikke midlertidige bekvemmeligheder.

Hvad sikkerhedsteams skal gøre nu

Reduktion af hemmelighedseksponering i AI-workflows kræver en ændring fra reaktive kontroller til styring, der afspejler, hvordan arbejdet faktisk sker. Sikkerhedsledere kan begynde med praktiske skridt, der forbedrer indsigt, vejleder sikrere adfærd og reducerer eksponering uden at sænke produktivitet:

  • Kortlæg, hvor AI-interaktioner finder sted.
    Identificer miljøerne, hvor data indgår i AI-værktøjer, herunder browser-udvidelser, udviklermiljøer, automatiseringsplatforme og chatgrænseflader. Kontinuerlig indsigt i disse kontaktpunkter giver grundlaget for effektiv styring.
  • Intervener i det øjeblik, beslutninger træffes.
    Implementer hemmelighedsscanning, redigeringsprompts og øjeblikkelige advarsler, der alarmerer brugere, når legitimationsoplysninger eller følsomme artefakter er på vej til at blive delt. Timelig vejledning reducerer utilsigtet eksponering, mens den bevarer workflowhastighed.
  • Anvend integrationsstyring med samme rigor som OAuth-apps.
    Gennemgå AI-værktøjer, der er tilsluttet e-mail, dokumenter, billetsystemer og repositories. Gennemfør mindst privilegie og gennemfør periodiske tilladelsesgennemgange for at reducere langsigtede eksponeringsrisiko.
  • Opret sikrere workflows til fejlfinding og support.
    Tilbyd redigerede skabeloner, sikre forbindelser og interne værktøjer til analyse af logfiler eller konfigurationsfiler, så hold kan bruge AI til problemløsning uden at eksponere live-legitimationsoplysninger.
  • Etabler guardrails for agentbaseret automatisering.
    Kræv menneskelig godkendelse for høj-impact-handlinger, log agentaktivitet centralt og brug scoped access-tokens til at forhindre tilladelsesspredning og uventet automatisering.
  • Baser uddannelse på virkelige workflows.
    Uddannelse er mest effektiv, når den afspejler almindelige opgaver såsom fejlfinding af integrationer, gennemgang af logfiler eller upload af filer. Praktiske eksempler hjælper medarbejdere med at genkende risiko i det øjeblik, det opstår.

Disse foranstaltninger bringer styring i overensstemmelse med dagligt arbejde, hvilket giver organisationerne mulighed for at reducere hemmelighedseksponering samtidig med, at de støtter produktivitetsgevinsterne, der driver AI-adoptionsudvidelsen.

Fra AI-politik til AI-adfærdsstyring

AI udvikler sig fra et produktivitetsværktøj til et operationelt lag, der er integreret i dagligt arbejde, med forskning, der viser, at AI-agenter nu er integreret på tværs af virksomhedsworkflows, og prognoser, der forudser, at opgavebestemte agenter kommer inden for en stor andel af virksomhedsapplikationer. Da adoptionsudvidelsen dykker, udvides de dominerende risici ud over privatlivslækage eller modelmisbrug. De opstår fra, hvordan mennesker, tilladelser og platforme mødes i virkelige workflows.

Hemmelighedseksponering i AI-prompts er et synligt signal af denne bredere transformation. Det fremhæver begrænsningerne af perimeterbaserede kontroller og politikbaseret styring og understreger behovet for guardrails, der fungerer, hvor beslutninger træffes. Organisationer, der tilpasser sig, vil gå ud over reaktive kontroller og mod styringsmodeller, der er baseret på reel adfærd. De vil behandle integrationer og tilladelser som varige adgangsbeslutninger. De vil vejlede medarbejdere i det øjeblik, hvor handlingen sker, i stedet for at basere sig udelukkende på politikgennemførelse.

AI bevæger sig fra værktøj til samarbejdspartner i moderne arbejde. At sikre dette samarbejde kræver styring, der holder trit, beskytter kritiske data og vejleder sikrere beslutninger, samtidig med at den opretholder hastigheden og efficiensen, som AI muliggør.

Russell Spitler er medstifter og CEO af Nudge Security, lederen inden for SaaS og AI-sikkerhedsstyring. Russell har mere end 20 års erfaring med at opbygge produkter og startup-virksomheder, der sikrer organisationer verden over. Før Nudge, fungerede Russell i produkt-, ingeniør- og strategilederroller hos AT&T Cybersecurity, AlienVault (opkøbt af AT&T Cybersecurity) og Fortify Software. Hos AlienVault co-stiftede han Open Threat Exchange, verdens største åbne trusselforskningsfællesskab med over 370.000 globale deltagere i dag.