Connect with us

Tankeledere

Fra Generative til Agentic AI: Skiftet fra Indholdsrisk til Udførelseseksponering

mm
A photorealistic widescreen image of a modern Security Operations Center (SOC) where a single glowing data stream from a computer screen branches out into multiple autonomous pathways, representing the shift from generative AI to complex agentic AI workflows.

Enterprise AI udvikler sig hurtigt. Det, der startede som generative AI-co-piloter, der udarbejdede e-mails og sammenfattede dokumenter, er nu blevet til noget meget mere autonomt: systemer, der planlægger, beslutter og udfører opgaver på tværs af værktøjer og miljøer.

Dette er skiftet fra generative til agentic AI. Det handler om at se risikoen forvandle sig.

GenAI introducerede indholdrisici, herunder hallucinationer, datalæk via prompts og forvrængede output. Agentic AI-eksponering sker gennem dets autonome systemer, der har tilladelse, hukommelse og evnen til at få adgang til alle tilgængelige værktøjer i maskinens hastighed.

Dette er en mulighed for sikkerheds-, governance- eller AI-professionelle til at omvurdere deres stilling til disse nye risici.

Hvad er agentic AI-risiko?

Agentic AI-risiko henviser til de sikkerheds-, operations- og governance-risici, der stilles af AI-systemer, der opererer autonomt, ikke kun genererer tekst, men også udfører multi-trins arbejdsgange på enterprise-systemer.

I modsætning til traditionelle store sprogmodeller (LLM) kan agentic-systemer bryde opgaver ned i dynamiske arbejdsgange, foretage eksterne API-anmodninger og aktiverer interne applikationer, og gemme og hente hukommelse. De kan også operere under delegueret identitet og kommunikere med andre agenter.

Med andre ord er de mindre som chatbots og mere som junior digitale medarbejdere. Dette repræsenterer en massiv øgning i AI-agentens angrebsoverflade.

Generative vs agentic AI: Hvad ændrer sig?

Generative AI-risiko koncentrerer sig om output. Sikkerhedsteams stiller spørgsmål som, om modellen lækker data, hvis den måske hallucinerer, eller om skadelig eller non-kompatibel indhold genereres.

Mennesker er fast i løkken. AI foreslår, mennesker godkender.

Agentic AI-risiko er handlingssorienteret. Nu må sikkerhedsteams spørge sig selv, hvilke systemer agenten måske interagerer med, hvilke tilladelser den vil arve, hvor langt dens plan måske når, og hvad der vil ske, hvis den blev bedraget under kørslen.

Forskellen kan være meget lille, men det er betydeligt: Generative AI skaber indhold. Agentic AI skaber konsekvenser. Dette er skiftet fra indholdrisiko til udførelseseksponering.

Hvordan udvider agentic AI enterprise-angrebsoverfladen?

Agentic AI tilføjer ikke kun en ny applikation. Det skaber et nyt operationslag. Her er, hvordan angrebsoverfladen vokser:

1. Privilegerede AI-agenter

Der er mange agenter, der handler på vegne af brugere eller servicekonti. Når omfanget af tilladelser ikke er tæt, bliver de værdifulde mål.

Dette kan føre til forvirrede stedfortræder-problemer, privilegie-escalation og lateral bevægelse. Dette er et problem, når cloud-, SaaS- og interne systemer giver dynamisk eller arvet adgang til agenter.

2. Dynamiske udførelsesveje

Kontrolflader i traditionelle apps er deterministiske. Kontrolflader i agentic AI-systemer er det ikke.

De fornufter om mål, handlinger, reflekterer, forbedrer og aktiverer værktøjer på en ikke-deterministisk måde. Dette fører til svær-analyserede fejltilfælde, komplekse afhængighedsgrafer og kaskade-fejl i multi-agent-systemer. Sikkerhedscontroller udviklet til deterministiske kontrolflader er ikke anvendelige her.

3. Varig hukommelse

Angrebsoverfladen, der skyldes agent-hukommelse, er varig.

Når kort- eller langtidshukommelse er kompromitteret, kan en ondsindet tilstand påvirke beslutninger på tværs af multiple sessioner. Dette adskiller sig fra en enkelt injektion af en prompt, da hukommelseskorruption giver varighed.

4. Maskin-hastigheds beslutningsrisici

Autonome agenter tager beslutninger i en hastighed, der er umulig at matche. Dette bringer maskin-hastigheds beslutningsudfordringer, såsom hurtig fejlpropagation, misbrugs cykler meget hurtigere end menneskelig reaktion, og eskalering før detektering er mulig.

I multi-agent-systemer er omfanget af indflydelse hurtigt. En ondsindet agent kan udløse en fejl-kaskade i koordineringskæder.

Hvorfor traditionelle kontroller fejler med agentic AI

De fleste traditionelle enterprise-sikkerhedsmodeller afhænger af statiske applikationer, forudsigelige kaldegrafer, menneskelig godkendelse og en klar adskillelse mellem data-processing og udførelse. Agentic AI gør disse antagelser ugyldige.

Tag for eksempel en traditionel kontrol som input-validering. Dette sikrer grænsen for et system. Men agentic-risiko viser sig ofte i midten af en løkke, i planlægnings-, refleksions- eller værktøjsfasen.

Traditionel sårbarheds-scanning fokuserer også på infrastruktur og software. Men AI-udførelses-risiko bor i den resonnerende og handlingsslag af agenten.

Spørgsmålet er: Hvordan beskytter man noget, der kan vælge sin egen næste handling? Man kan ikke bare omringe kontroller omkring en enkelt model-kald. Man må sikre arbejdsgangen.

Sikring af agentic AI: Hvad virker faktisk?

Når det kommer til at sikre agentic AI, må der være et skift fra perimeter-tænkning til livscyklus-tænkning. Agenter må ikke tillades at fortolke mål uendeligt, og der er flere måder at opnå dette på.

At etablere tilladte sekvenser af mål, regulere dybden af plan-udvidelses-træer, overvåge resonans-drift og forbyde selv-udførte mål uden for omfanget er alle essentielle kontroller. Uventede variationer i resonans er ofte forløberne for manipulation.

Hårdt værktøjs-udførelse. Værktøjer er, hvor planen møder virkeligheden, og sikkerhed må dække tilladelseskontroller før værktøjs-udførelse, sandboxede udførelses-miljøer, strenge parameter-validering og just-in-time-credential-overførsel. Hver værktøjs-udførelse må logges som en førsteklasses sikkerhedsbegivenhed.

Isoler hukommelse og privilegie-omfang. Hukommelse må behandles som følsom infrastruktur. Dette betyder validering af skriveoperationer, hukommelses-domæne-opdeling, begrænsning af omfanget for læse-operationer per opgave, brug af kortvarige legitimationsoplysninger og forhindring af arvede privilegier. Uvalideret tilladelses-akkumulation er en stor agentic AI-risiko.

Sikr multi-agent-koordination. I distribuerede agent-systemer bliver kommunikationen selv en angrebsvektor. Dette bør indebære agent-autentificering, meddelelse-schema-validering, begrænsede kommunikationskanaler og overvågning af usædvanlige påvirkningsmønstre. Når koordination afviger fra forventede flader, skal isolation ske automatisk.

Fra eksponeringsstyring til eksponerings-vurdering for AI-systemer

Dette er, hvor en bredere sikkerhedsfilosofi bliver nøgle. Traditionel sårbarhedsstyring identificerer kendte svagheder. Men autonome AI-systemer introducerer emergent eksponering: risici, der opstår fra konfiguration, privilegie-design, integrationsveje og dynamisk adfærd.

Dette stemmer overens med, hvad industrien har døbt eksponeringsstyring og, mere nylig, eksponerings-vurdering.

Eksponeringsstyring handler om at have kontinuerlig indsigt i, hvordan systemer (herunder cloud-aktiver, identiteter, applikationer og nu AI-agenter) skaber vejbaner, som dårlige aktører kan udnytte.

For autonome AI-systemers sikkerhed betyder det at spørge: Hvad kan denne agent nå? Hvilke tilladelser akkumulerer den? Hvilke systemer koordinerer den? Og hvor mødes udførelse med følsomme data?

Hold, der allerede bruger eksponerings-baserede strategier til at reducere cyber-risiko, er i en solid position til at udvide disse principper til deres AI-miljøer. For eksempel giver platforme, der samler identitet, cloud og sårbarheds indsigt, en måde at forstå, hvordan privilegerede AI-agenter mødes med eksisterende angrebsveje.

Nøglen er ikke vendor-værktøj per se. Det er mindset:

Du sikrer ikke agentic AI ved at beskytte modellen. Du sikrer det ved kontinuerligt at måle og reducere dets eksponering.

Styring af udførelses-lag-risici i agentic AI

Kendetegnet for agentic AI-sikkerhed er dette: Angrebsoverfladen er ikke responsen, men arbejdsgangen.

Udførelses-lag-risici er mange, herunder uautoriseret værktøjsbrug, identitets-spoofing, privilegie-kryb, hukommelses-forgiftning, cross-agent-manipulation og menneske-i-løkken-systemer under pres.

At mindske disse risici betyder at have indsigt i identitets-relationer, privilegie-arv, API-afhængigheder, runtime-aktivitet og udførelses-telemetri.

Dette er ikke kun GenAI-sikkerhed; det er AI-operations-sikkerhed også.

Agentic AI-risiko er arkitektonisk, ikke hypotetisk

Agentic AI er det næste skridt i udviklingen af enterprise AI-adopterings. Det indeholder løftet om effektivitet, automatisering og skalerbarhed. Men det introducerer også risiko fra, hvad AI siger, til hvad AI gør.

Overgangen fra generative til agentic-systemer påvirker følgende:

  • Indholdrisiko til udførelsesrisiko
  • Statiske prompts til dynamiske udførelses-flader
  • Menneskelig gennemgang til autonom udførelse
  • Applikations-sikkerhed til eksponeringsstyring

Sikkerhedsledere, der forstår denne overgang først, kan arkitektur-sikre barrierer, der skalerer med autonomi. Andre ender med digitale insiders uden insider-kontroller.

Fremtiden for AI i virksomheden er agentic. Fremtiden for AI-sikkerhed må være eksponerings-dreven, arbejdsgangs-bevidst og designet til maskin-hastigheds-operationer.

For når AI-agenter har mulighed for at udføre, er den eneste viable tilgang at konstant forstå (og mindske) hvad de er eksponeret for.

Kirsten Doyle har været i teknologi-journalistik og redigering i 27 år, hvor hun har udviklet en stor kærlighed til alle aspekter af teknologi samt ord selv. Hendes erfaring omfatter B2B-teknologi med fokus på cybersikkerhed, cloud, virksomhed, digital transformation og datacenter. Hendes specialområder er nyheder, tankeledelse, funktioner, hvide papirer, e-bøger og PR-skrivning, og hun er en erfaren redaktør for både trykte og online publikationer. Hun er også en fast skribent på Bora.