Connect with us

Tankeledare

Skugg-AI: Den styrningsgap som organisationer inte har råd att ignorera

mm
A female executive looks out a high-rise office window at night where a glowing, interconnected digital network of

På det här stadiet i AI-resan erkänner affärsledare i allmänhet betydelsen av AI-styrning. Men hastigheten med vilken organisationer utvecklar policys och skyddsräcken fortsätter att ligga efter hur snabbt anställda antar och integrerar AI i sitt dagliga arbete.

Organisationer som väntar på att styrningsramar ska kännas “kompletta” innan de aktiverar AI måste konfrontera en hård verklighet: i avsaknad av tydliga regler kring hur, vad och var AI kan användas, kommer anställda att definiera dessa gränser själva. Och dessa beslut kan direkt motsäga organisatoriska standarder, risktolerans eller regulatoriska skyldigheter.

Detta styrningsgap har orsakat att skugg-AI har blivit den standardiserade driftsmodellen inom många organisationer.

En utbredd och växande problem

Skugg-AI är inte begränsad till enskilda bidragsgivare som experimenterar på marginalen. Det sträcker sig över hela organisationen, inklusive ledningen. När AI blir en del av dagliga arbetsflöden, även seniora beslutsfattare, kringgår formella godkännandeprocesser för att fånga dess fördelar. I själva verket fann en nylig studie att 68% av säkerhetsledare, inklusive CISO, medger att de införlivar någon form av obehörig AI i arbetsflöden.

Samtidigt rapporterar 79% av IT-ledare att deras organisationer redan har upplevt negativa konsekvenser av att dela företagsdata med AI-verktyg. Och analytiker förutspår att detta problem kommer att intensifieras. Gartner uppskattar att, fram till 2030, kommer mer än 40% av organisationerna att uppleva säkerhets- eller regelefterlevnadsincidenter på grund av användningen av obehöriga AI-verktyg.

Den utvidgade riskytan

Skugg-AI presenterar en mängd olika risker, inklusive:

  • Förlust av datakontroll och potentiell dataläckage
  • Utvidgade säkerhetsväner och angreppsyta
  • Regelefterlevnads- och regulatorisk exponering
  • Brist på synlighet i hur AI används
  • Förlust av immateriella rättigheter
  • Reputationskada
  • Ofullständiga eller partiska utdata

En betydande drivkraft för dessa risker är en grundläggande missförstånd av hur AI-system hanterar data.

Många anställda antar att användning av “kostnadsfria” verktyg, särskilt de som inte kräver inloggningsuppgifter, erbjuder anonymitet eller skydd. I verkligheten använder dessa verktyg ofta användarindata för att träna och förbättra sina modeller och delar i vissa fall data med tredje parter. Den data kan inkludera högt känslig information som personligt identifierbar information (PII), medicinsk eller juridisk data, finansiella register, immateriella rättigheter och annan konfidentiell affärsinformation.

Ännu mer oroande är att medvetenhet inte alltid förändrar beteende. Forskning visar att 38% av anställda medvetet delar känslig information med AI-verktyg utan organisatoriskt godkännande.

Varför skugg-AI består

För att effektivt hantera skugg-AI måste organisationer först förstå dess rotorsak.

I de flesta fall handlar anställda inte med illvillig avsikt. De reagerar rationellt på sin omgivning. De är under tryck för att flytta snabbare, göra mer med mindre och leverera bättre resultat. AI möjliggör allt detta.

Skugg-AI uppstår när organisatoriska system inte kan hålla jämna steg med dessa förväntningar. Vanliga drivkrafter inkluderar:

  • Strikta förbud mot AI-verktyg på arbetsplatsen
  • Godkända verktyg som är mindre kapabla eller mindre användarvänliga
  • Tryck för att möta aggressiva tidsfrister
  • Långsamma eller komplexa inköpsprocesser
  • Otydliga, inkonsekventa eller obefintliga policys
  • Begränsad utbildning eller vägledning
  • Övertro på personlig bedömning eller underskattning av risk

I sin kärna är skugg-AI en avvägning. När de upplevda produktivitetsvinsterna väger tyngre än de upplevda riskerna, kommer anställda alltid att välja hastighet och effektivitet.

Hantera AI utan att kväva innovation

Anställda använder redan AI. Att ignorera denna faktum eller fördröja åtgärder ökar bara gapet mellan policy och praxis.

Organisationer bör ändra sin tillvägagångssätt från kontroll till möjliggörande.

Det börjar med att etablera tydliga, praktiska och transparenta riktlinjer, även om de inte är fullt utvecklade. Tidiga skyddsräcken ger riktning, minskar tvetydighet och skapar en gemensam förståelse för acceptabel användning.

Men policy ensam är inte tillräckligt. Organisationer behöver också synlighet. Detta kräver att man bygger tillitsbaserade mekanismer som tillåter anställda att säkert avslöja vilka verktyg de använder och varför. Tillvägagångssätt som “skugg-AI-amnesti” eller anonym rapportering kan ge viktiga insikter utan att omedelbart bestraffa beteende.

Samtidigt måste organisationer upprätthålla ansvar. I fall där dataexponeringen är betydande eller försumlig, kan konsekvenser fortfarande vara nödvändiga. Målet är inte att eliminera risk helt, utan att hantera den intelligent.

Från skugg till strategi

Skugg-AI är ett tecken på att innovationen flyttar snabbare än organisatoriska strukturer som är utformade för att innehålla den.

Organisationer kan inte vänta. Att etablera styrning nu, även om den är ofullständig, är avgörande för att minska risk och återfå synlighet. Men styrning ensam är inte tillräckligt. Tydliga skyddsräcken måste kombineras med möjliggörande, utbildning och tillgängliga alternativ som ger anställda möjlighet att använda AI på ett säkert och effektivt sätt.

Målet är inte att begränsa AI-användning, utan att forma den. När organisationer hittar den balansen, skiftar skugg-AI från en dold skuld till en hanterad, strategisk förmåga. Och genom att göra det kan de stänga gapet mellan hur AI används och hur den borde användas innan gapet utvecklas till en säkerhetsincident.

Lina Dabit bringar mer än trettio års operativ och strategisk ledarskaps erfarenhet till sin roll på Optiv Canada. Dabit utnyttjar sin breda säkerhetsexpertis för att leda organisationer mot en proaktiv approach till hotintelligens, tredjepartsriskhantering och tvärfunktionell säkerhetsresiliens. Dabit har lett team över flera discipliner, inklusive skyddande operationer, nödplanering, hotintelligens och internationella, taktiska operationer.

Före sin pension från Royal Canadian Mounted Police var Dabit befälhavare för Toronto Cybercrime Investigative Team, där hon designade, implementerade och ledde strategiska initiativ för att optimera operationer och etablera effektiva, skalbara arbetsflöden medan hon ledde sitt team i flera högprofilerade cyberbrottsutredningar.