Connect with us

Het AI-risico waar niemand op let: geheimen blootlegging in bedrijfsworkflows

Thought leaders

Het AI-risico waar niemand op let: geheimen blootlegging in bedrijfsworkflows

mm

De meeste discussies over bedrijfs-AI-risico’s beginnen met een vertrouwde zorg: medewerkers plakken klantgegevens in chatbots. Privacy en regelgevingsblootstelling domineren de koppen en directie-briefings, en onderzoek van Deloitte toont aan dat gegevensprivacy en -beveiliging hoog op de lijst van AI-risico’s staan waar organisaties zich zorgen over maken.

Yet het uit real-world bedrijfsgebruik komende bewijs vertelt een ander verhaal. De meest voorkomende gevoelige informatie die in AI-hulpmiddelen stroomt, is helemaal geen persoonlijke gegevens. Het zijn geheimen en referenties.

API-sleutels, toegangstokens, webhooks en authenticatie-artefacten vertegenwoordigen nu het grootste aandeel van gevoelige gegevensblootstellingen die in AI-prompten worden waargenomen. Deze bekendmakingen komen zelden voort uit nalatigheid of kwaadwillige bedoelingen en ontstaan in plaats daarvan uit routineuze werkzaamheden zoals het oplossen van een mislukte integratie, het oplossen van automatiseringsproblemen, het testen van code of het oplossen van een klantprobleem. Aangezien AI wordt geïntegreerd in dagelijkse workflows, treden deze momenten constant op en vaak buiten het zicht van traditionele beveiligingscontroles.

De gevolgen zijn duidelijk. Aangezien de adoptie van AI uitbreidt, krijgen organisaties een nauwkeuriger beeld van waar echte risico’s ontstaan, en moet governance evolueren om deze aan te pakken.

Een over het hoofd gezien AI-gegevensblootstellingsrisico is in het zicht

Een recente AI gebruiksanalyse uitgevoerd door Nudge Security onderzocht anonieme telemetrie in bedrijfsomgevingen om te begrijpen hoe AI-hulpmiddelen in de praktijk in de werkplek worden gebruikt. In plaats van te vertrouwen op enquêtes of zelfrapportage, analyseerde het onderzoek waargenomen AI-activiteit, integraties en promptgedrag in bedrijfs-SaaS-ecosystemen.

De resultaten bieden nieuwe inzichten in waar AI-risico’s in werkelijkheid ontstaan in bedrijfsgebruik. Gevoelige gegevensblootstellingen in AI-prompten worden gedomineerd door operationele referenties. Geheimen en referenties vertegenwoordigen ongeveer 48 procent van de gedetecteerde gevoelige gegevensgebeurtenissen, vergeleken met 36 procent voor financiële gegevens en 16 procent voor gezondheidsgerelateerde informatie. Deze patronen suggereren dat de meest significante AI-gegevensblootstellingsuitdaging niet privacylekkage is, maar geheimenverspreiding.

Hetzelfde onderzoek toont aan dat de adoptie van AI voorbij experimentatie is gegaan. AI-hulpmiddelen zijn geïntegreerd in workflows, geïntegreerd met core businessplatforms en steeds meer in staat om autonome actie te ondernemen. Core large language model-aanbieders zijn nu bijna alomtegenwoordig, met OpenAI aanwezig in 96 procent van de organisaties en Anthropic in 78 procent.

Onderzoek van McKinsey vindt 88 procent van de organisaties rapporteert regelmatig AI-gebruik in ten minste één bedrijfsfunctie, vergeleken met 78 procent een jaar geleden. Meeting intelligence tools, AI-geassisteerde coding platforms, presentatiegeneratoren en spraaktechnologieën zijn breed ingezet, weerspiegelend hoe AI zich heeft uitgebreid van chatinterfaces naar dagelijkse workflows. Deze uitbreiding is van belang omdat risico volgt op gebruik. Aangezien AI wordt geïntegreerd in ontwikkelaarsomgevingen, samenwerkingsplatforms en klantondersteuningsworkflows, krijgt het proximiteit tot gevoelige systemen en operationele gegevens.

De adoptie is ook gedreven van onderaf. Een recente KPMG-studie vond dat 44 procent van de medewerkers AI-hulpmiddelen gebruikt op manieren die hun werkgevers niet hebben geautoriseerd, weerspiegelend hoe snel deze hulpmiddelen in dagelijkse workflows terechtkomen. Medewerkers installeren browserextensies, verbinden assistenten en experimenteren met integraties om dagelijkse taken te versnellen, vaak buiten centrale inkoopprocessen. Beveiligingsanalisten beschrijven dit patroon als shadow AI, waarbij hulpmiddelen binnen browsers en SaaS-workflows opereren buiten traditioneel IT-zicht. Omdat deze hulpmiddelen instant kunnen worden geïmplementeerd en weinig technische instellingen vereisen, worstelen governanceprogramma’s die zijn gebouwd rondom vendor-goedkeuringsprocessen en aanvaardbaar gebruikbeleid om gelijke tred te houden met hoe AI in werkelijkheid wordt geïntroduceerd en gebruikt in de hele organisatie.

Waarom gelekte geheimen onmiddellijk operationeel risico kunnen creëren

Persoonlijke gegevens blijven gevoelig en gereguleerd, maar geheimen dragen onmiddellijk operationele impact. Een gelekte API-sleutel kan toegang tot productiesystemen bieden. Een gecompromitteerde token kan repositories blootleggen. Een webhook-URL kan ongeautoriseerde automatisering inschakelen. Referenties komen vaak naar voren in AI-prompten tijdens routineuze workflows. Ontwikkelaars plakken tokens in chatinterfaces terwijl ze authenticatiefouten oplossen, ingenieurs delen mogelijk configuratiesnippets om integratieproblemen te diagnosticeren. Deze acties zijn niet ongebruikelijk. Geheimen zijn ingebed in technische workflows en verschijnen in logbestanden, scripts, configuratiebestanden en automatiseringsuitvoer. Wanneer teams onder druk staan om problemen snel op te lossen, delen ze deze artefacten mogelijk zonder stil te staan bij de gevoelige gegevens die ze bevatten.

AI-interfaces versterken dit gedrag. Prompten moedigen contextdeling aan. Bestandsuploads ondersteunen rijkere foutopsporing. Integratieve workflows maken het gemakkelijk om gegevens tussen systemen te verplaatsen. Onderzoek van Nudge Security vond dat 17 procent van de prompten kopieer- en plakactiviteit of bestandsuploads bevatten. In deze omgeving kunnen gevoelige referenties in seconden worden blootgelegd.

Traditionele governance mist gedragsrisico

AI-governanceprogramma’s richten zich vaak op formele controles zoals beleid en goedgekeurde hulpmiddelen. Deze aanpak gaat ervan uit dat risico voortkomt uit misbruik of modelgedrag. In de praktijk treden de meest significante blootstellingen op tijdens routineuze workflows die worden uitgevoerd door goedbedoelende medewerkers.

Het AI-landschap evolueert snel, met nieuwe technologieën die dagelijks worden uitgebracht. Aangezien uw medewerkers de nieuwste tool bereiken, kunnen ze de traditionele aanpak van netwerkcontroles omzeilen omdat ze eenvoudigweg niet kunnen bijhouden. De browser biedt rechtstreekse observatie van contextueel gedrag, wat de flexibiliteit biedt die nodig is om gelijke tred te houden met het constant evoluerende landschap van modern werk.

Deze disconnectie verklaart waarom organisaties sterke beleid kunnen implementeren en toch gevoelige gegevensblootstelling kunnen ervaren. Beleid vestigt verwachtingen. Gedrag bepaalt resultaten. Effectieve governance vereist zichtbaarheid in hoe AI-hulpmiddelen in werkelijkheid worden gebruikt en leidraaien die veiligere beslissingen leiden op het moment dat gegevens worden gedeeld.

Integraties en agenten vergroten blootstellingsbereik

Het risicoprofiel van een AI-hulpmiddel wordt gevormd door wat het kan benaderen. Integraties creëren vertrouwde paden tussen systemen. OAuth-grants, API-tokens en service-accounts stellen AI-hulpmiddelen in staat om documenten op te halen, tickets bij te werken of te communiceren met code-repositories. Onderzoek naar bedrijfs-AI-adoptie benadrukt dat integraties effectief het blootstellingsbereik definiëren. Een misgeconfigureerde machtiging of een gecompromitteerde token kan hele documentenrepositories of ontwikkelomgevingen blootleggen omdat vertrouwde verbindingen gegevensbeweging op machinesnelheid mogelijk maken.

Agente AI introduceert extra complexiteit. Vroege implementaties geven vaak prioriteit aan functionaliteit boven minimale privileges. Machtigingen die tijdens experimenten worden verleend, kunnen lang na het eerste gebruik blijven bestaan. In de loop van de tijd creëren deze opgebouwde machtigingen stil risico. Beveiligingsteams moeten integraties en agentmachtigingen behandelen als duurzame toegangsbeslissingen in plaats van tijdelijke gemakken.

Wat beveiligingsteams nu moeten doen

Het reduceren van geheimenblootstelling in AI-workflows vereist een verandering van reactieve controles naar governance die weerspiegelt hoe werk in werkelijkheid gebeurt. Beveiligingsleiders kunnen beginnen met praktische stappen die zichtbaarheid verbeteren, veiliger gedrag leiden en blootstelling verminderen zonder productiviteit te vertragen:

  • Kaart waar AI-interacties plaatsvinden.
    Identificeer de omgevingen waar gegevens AI-hulpmiddelen binnenkomen, inclusief browserextensies, ontwikkelaarsomgevingen, automatiseringsplatforms en chatinterfaces. Continue zichtbaarheid in deze contactpunten biedt de basis voor effectieve governance.
  • Intervenieer op het moment dat beslissingen worden genomen.
    Implementeer geheimen-scanning, redactieprompten en just-in-time waarschuwingen die gebruikers waarschuwen wanneer referenties of gevoelige artefacten op het punt staan te worden gedeeld. Timelye leiding vermindert toevallige blootstelling terwijl workflow-snelheid behouden blijft.
  • Pas integratiegovernance toe met dezelfde strengheid als OAuth-apps.
    Beoordeel AI-hulpmiddelen die zijn verbonden met e-mail, documenten, ticketsystemen en repositories. Verplicht minimale privilege-omvang en voer periodieke machtigingsbeoordelingen uit om langetermijnblootstellingsrisico te verminderen.
  • Creëer veiligere workflows voor foutopsporing en ondersteuning.
    Bied redacteerbare sjablonen, beveiligde connectors en interne hulpmiddelen voor het analyseren van logbestanden of configuratiebestanden, zodat teams AI kunnen gebruiken voor probleemoplossing zonder live-referenties bloot te leggen.
  • Stel agent-gebaseerde automatisering veilig.
    Vereis menselijke goedkeuring voor hoge-impactacties, log agentactiviteit centraal en gebruik scoped toegangstokens om machtigingsspreiding en onbedoelde automatisering te voorkomen.
  • Grond opleiding in werkelijke workflows.
    Onderwijs is het meest effectief wanneer het dagelijkse taken weerspiegelt, zoals het oplossen van integraties, het bekijken van logbestanden of het uploaden van bestanden. Praktische voorbeelden helpen medewerkers risico’s te herkennen op het moment dat ze ontstaan.

Deze maatregelen brengen governance in overeenstemming met dagelijks werk, waardoor organisaties geheimenblootstelling kunnen verminderen en tegelijkertijd de productiviteitswinsten ondersteunen die AI-adoptie aandrijven.

Van AI-beleid naar AI-gedragsgovernance

AI evolueert van een productiviteitstool naar een operationele laag die in dagelijks werk is geweven, met onderzoek dat aantoont AI-agents nu zijn geïntegreerd in bedrijfsworkflows en prognoses die voorspellen dat taakspecifieke agents binnen een groot aandeel van bedrijfsapplicaties zullen zijn. Aangezien adoptie dieper wordt, gaan de dominante risico’s verder dan privacyovertredingen of modelmisbruik. Ze ontstaan uit hoe mensen, machtigingen en platforms in werkelijke workflows samenkomen.

Geheimenblootstelling in AI-prompten is een zichtbaar signaal van deze bredere transformatie. Het benadrukt de beperkingen van perimetergebaseerde controles en beleidsonly governance en versterkt de noodzaak van leidraaien die opereren waar beslissingen worden genomen. Organisaties die zich aanpassen, zullen verder gaan dan reactieve controles en naar governance-modellen die zijn gebaseerd op werkelijk gedrag. Ze zullen integraties en machtigingen behandelen als duurzame toegangsbeslissingen. Ze zullen medewerkers leiden op het moment van actie in plaats van te vertrouwen op alleen beleidsenforcing.

AI verandert van tool naar medewerker in modern werk. Het beveiligen van deze samenwerking vereist governance die gelijke tred houdt, waarbij kritieke gegevens worden beschermd en veiligere beslissingen worden geleid en de snelheid en efficiëntie die AI mogelijk maakt, in stand worden gehouden.

Russell Spitler is de medeoprichter en CEO van Nudge Security, de leider in SaaS en AI-beveiligingsgovernance. Russell heeft meer dan 20 jaar ervaring met het ontwikkelen van producten en startupbedrijven die organisaties wereldwijd beveiligen. Voordat hij bij Nudge kwam, bekleedde Russell posities in product-, engineerings- en strategieleiderschap bij AT&T Cybersecurity, AlienVault (overgenomen door AT&T Cybersecurity) en Fortify Software. Bij AlienVault was hij medeoprichter van de Open Threat Exchange, 's werelds grootste open community voor dreigingsinformatie met vandaag meer dan 370.000 deelnemers wereldwijd.