Connect with us

Tankeledere

Hvordan skal virksomheder håndtere AI-overbelastning?

mm

Ikke-så-personlig computing

I årevis har teknologiens udvikling været drevet af ønsket om at gøre computing mere tilgængeligt. Fra smartphones til tablets, bærbare computere og wearable tech, er der en generel trend med at gøre computere og deres muligheder mere personlige. Bare tænk på nomenklaturen af industrikæmpesten: “Personlig Computer”, eller PC; “i” Pod, Pad, Phone og mere. Hver af disse enheder er ment til at fungere som en personlig ledsager, der hjælper med at strømlinje brugerens digitale oplevelse og, ved udvidelse, deres liv.

Udviklingen af kunstig intelligens (AI) – især store sprogmodeller (LLM) og agente løsninger – er hovedsageligt gået i samme retning. Ligesom PC og iPhone har AI-værktøjer som ChatGPT gjort computing-aktiviteter som søgning, redigering og brainstorming mere tilgængelige for offentligheden. Men da denne tilgængelighed har drevet øget brug, har det også øget risikoen.

Uanset om det er gennem forgiftede connectores eller ufrivillig søgemaskine-indeksering, truslerne mod privat AI-brug bliver mere og mere svære at beskytte imod. Tilføj usikkerheder om, hvem der bruger hvilke værktøjer, og virksomheder står over for en perfekt storm af voksende trusler og utilstrækkelig beskyttelse. Givet AI-værktøjernes løfte og usikkerheden om, hvordan man skal sikre dem, hvad skal en teknologi-fremadrettet virksomhed gøre?

Væksten af ikke-godkendte AI-apps

Med over 700 millioner daglige brugere i 2025, er ChatGPT-brugen vokset mere end 4 gange om året. Alligevel er kun fem millioner af disse brugere betalende virksomheds-kunder. Dette gør de andre 695 millioner eller så medlemmer af deres brugerbase enten personlige eller ikke-godkendte virksomhedsbrugere. Dette tal synes stort, indtil du husker, at ChatGPT ikke er den eneste AI-løsning på markedet. Faktisk er det langt derfra – den samtidige eksplosion af AI og maskinlærings-fremgang har genereret hundredtusinder af nye modeller og løsninger, både offentlige og private.

For virksomheder har den eksponentielle vækst af AI-løsninger givet anledning til en ny dimension af cybersikkerheds-landskabet kendt som “Shadow AI”. Ligesom fænomenet “Shadow IT”, er dette begreb baseret på medarbejder-brug af AI-løsninger uden forudgående vurdering og udtrykkelig godkendelse af deres organisation. Dette omgår helt IT- og sikkerheds-overvågning, hvilket fører til scenarier, hvor medarbejdere kunne bruge potentielt farlige eller usikre løsninger til følsomt arbejde.

Shadow AI-brug er både udbredt og voksende. En rapport fandt, at over 320 ikke-godkendte AI-apps bruges i gennemsnit per virksomhed. Hver af disse ikke-godkendte apps, og deres brug af medarbejdere, udvider trussels-landskabet yderligere.

De indbyggede risici ved AI-overbelastning

Truslerne forbundet med AI-overbelastning er multifacetterede og, desværre, kontinuerligt udvidende. Nogle, som data-forgiftning, prompt-injektion, model-manipulation og data-skrapning, er almindelig kendt. Disse direkte forsøg på AI-manipulation og udnyttelse kan give onde aktører adgang til følsom virksomheds-data og interne systemer. Givet denne risiko, begynder virksomheder at aktivt beskytte sig imod disse angreb.

Men virksomheder kan kun beskytte sig imod de trusler, de kender. Tænk på at sikre en middelalderlig borg. Mure, vagttårne, porte, grave og mere hjælper med at sikre borgen imod ydre fjender og angribere. Men hvad hvis køkkenpersonale har en hemmelig passage, der omgår de ydre mure? Eller en taleglad vagt bliver hørt diskutere vagtskift på den lokale kro? Nogen af disse ukendte trusler kunne hjælpe tyve med at omgå sikkerheden og bryde ind i de indre mure.

Shadow AI har den samme effekt på virksomheds-data-sikkerhed. Selv den velmenende brug af ikke-godkendte LLM og copilot kan betyde katastrofe for beskyttelsen af følsomme data, da enhver usikker løsning kan fungere som en port for onde aktører. Enhver LLM-brug øger inherent risikoen for problemer som data-tilbageholdelse, prompt-injektion eller model-forvrængning, hver af hvilke kræver sine egne relevante sikkerhedsforanstaltninger. Dette øger risikoen for data-lækager, overtrædelser af regler og operationelle fejl, som ofte kun identificeres efter skaden allerede er sket.

At etablere kontrol over AI-løsninger

Da AI-brugen fortsætter med at vokse på både personligt og virksomheds-niveau, er det afgørende, at organisationer etablerer kontrol over disse løsninger, før adoptionen vokser ud af kontrol. At sikre virksomheds-AI og beskytte imod ikke-godkendte AI-risici indebærer:

  1. At opnå omfattende oversigt. Som nævnt, kan man ikke sikre sin data imod trusler, man er uvidende om. Sikkerhed begynder med oversigt over alle AI-løsninger, som medarbejderne bruger – både godkendte og ikke-godkendte. Dette er lettere sagt end gjort, men en cloud access security broker (CASB) løsning kan hjælpe med at etablere kontinuerlig oversigt over medarbejder-app-brug.
  2. At udføre grundige risiko-vurderinger. Teams skal udføre TPRM-bestræbelser for at sikre, at alle AI-løsninger vurderes for deres sikkerhed og potentielle risici. Disse bestræbelser skal også omfatte fjerdeparts-niveauet, da selv godkendte applikationer som CRM eller produktivitets-platforme begynder at integrere eksterne LLM-kapaciteter i deres platforme. Disse fjerdeparts-løsninger skal overholde de samme sikkerhedsstandarder som enhver intern godkendt applikation.
  3. At etablere styre-rammer. Med denne oversigt over og forståelse af løsningerne kan organisationer udvikle og implementere konsistente AI-styre-policys rammer på tværs af deres applikations-økosystem. Ligesom med data-adgang kan disse styre-policys hjælpe med at kontrollere, hvilke AI-løsninger medarbejderne kan få adgang til, hvilken information de kan dele med dem, og gennemsigtigheden af deres dag-til-dag-brug.
  4. At automatisere risiko-opdækning. Den eksponentielle vækst af AI-adoptions gør manuel risiko-opdækning og respons næsten umulig. At automatisere disse processer baseret på styre-policys og forventet bruger-adfærd kan hjælpe med at proaktivt identificere afvigelser og begrænse deres bredere sikkerheds-påvirkning.
  5. At forklare medarbejder-forventninger. Det vigtigste aspekt af sikker AI-adoptions og brug er medarbejderne. At give tilstrækkelig træning og fastlægge klare forventninger vil hjælpe med at forebygge risikabel AI-brug og sikre den sikre, virksomheds-drevne brug af godkendte og beskyttede løsninger.

At opretholde sikker AI-adoptions

Ved at etablere disse proaktive sikkerheds-foranstaltninger, opnår virksomheder en mere holistisk visning af, hvordan de bruger AI-løsninger – både godkendte og i “skyggen”. Dette har en umiddelbar indvirkning på sikkerheden, hvilket hjælper teams med at identificere eksisterende risici og trussels-vektorer og tage handling for at afhjælpe dem.

Men det er endnu vigtigere, at det sætter disse virksomheder op til langsigtede AI-succes. Ved at skabe den tekniske grundlag for sikker AI-adoptions og en sikkerheds-først-kultur blandt AI-brugere, hjælper denne multi-prongede tilgang med at skabe en bæredygtig model for fremtidige AI-værktøjer. Med teknisk support og tilstrækkelig træning kan medarbejderne nyde AI’s fordele uden at være belastet af dets indbyggede risici.

Virksomheder, der foretager disse ændringer tidligt, vil være bedst forberedt til at møde fremtiden for AI-løsninger, uanset hvad de må bringe. At lægge den fornødne indsats i at skabe en stærk grundlag – i stedet for bare at tjekke af i AI-adoptions-kassen – vil sætte teams i den bedste mulige position for vedvarende AI-drevet succes.

Thyaga Vasudevan er en højenergi software-professionel, der i øjeblikket fungerer som Executive Vice President, Product hos Skyhigh Security, hvor han leder Product Management, Design, Product Marketing og GTM-strategier. Med en rigdom af erfaring har han med succes bidraget til at bygge produkter i både SAAS-baseret Enterprise Software (Oracle, Hightail - tidligere YouSendIt, WebEx, Vitalect) og Consumer Internet (Yahoo! Messenger - Voice og Video).

Han er dedikeret til processen med at identificere underliggende brugerproblemer og brugstilfælde og tager pride i at lede specifikation og udvikling af højteknologiske produkter og tjenester for at løse disse udfordringer, herunder hjælpe organisationer med at navigere i den ømfindelige balance mellem risici og muligheder. Thyaga elsker at uddanne og vejlede og har haft privileget at tale ved anerkendte begivenheder som RSA, Trellix Xpand, MPOWER, AWS Re:invent, Microsoft Ignite, BoxWorks og Blackhat. Han trives ved skæringen af teknologi og problemløsning, med målet om at drive innovation, der ikke kun løser nuværende udfordringer, men også forudser fremtidige behov.