Connect with us

Hvorfor Chatbot-Sikkerhedsforanstaltninger er den Forkerte Sikkerhedsgrænse

Tankeledere

Hvorfor Chatbot-Sikkerhedsforanstaltninger er den Forkerte Sikkerhedsgrænse

mm

Enterprise AI har bevæget sig langt beyond proof-of-concept-stadiet. 23% af organisationer er allerede i gang med at skala agentic AI-systemer et sted i deres virksomhed, og 62% er i hvert fald i gang med at eksperimentere med AI-agenter. Dette er ikke forskningsprojekter. De er produktionsinstallationer, integreret i arbejdsgange, der berører kodebiblioteker, kundedata, interne API’er og operativ infrastruktur.

Branchens respons på denne vækst har primært fokuseret på, hvad der sker før en agent går live. Leverandører og forskere har brugt energi på forudforanstaltninger: publicering af skaleringspolitikker, forbedring af grundlæggende modeller, filtrering af indgange, sikring af AI-levirkeden og gennemførelse af alignment under træningstiden. Store AI-leverandører har gjort betydelige investeringer i sikkerhedsværktøjer til udviklere, hvilket støtter en central antagelse: hvis modellen og dens indgange er kontrolleret, kan downstream-risikoen begrænses.

Det er en rimelig instinkt, men en stadig mere ufuldkommen en.

Prompten Er Ikke en Sikkerhedsgrænse

Sikkerhedsforanstaltninger, der fungerer ved modellens grænseflade, giver primært fordele for hold, der kontrollerer applikationskoden, modellens konfiguration og den underliggende infrastruktur. De tilbyder langt mindre beskyttelse for forsvarere, der er ansvarlige for at sikre AI-systemer, som de ikke selv har bygget og ikke kan ændre. Det er et betydeligt blindt punkt, og modstandere har allerede fundet det.

OpenAI’s seneste trusselforskningsrapport dokumenterer netop denne dynamik. Truselaktører udnytter aktivt ChatGPT og lignende værktøjer i produktionsmiljøer, ikke ved at opfinde nye angrebsteknikker, men ved at integrere AI i eksisterende arbejdsgange for at flytte hurtigere. Rekognoscering bliver mere effektiv. Social manipulation skalerer. Malware-udvikling accelererer. Angrebsfladen har ikke fundamentalt ændret sig; hastigheden og udnyttelsen af udnyttelsen har.

Endnu mere talende er, hvordan angriberne reagerede, da disse værktøjer fik modstand. OpenAI observerede, at truselaktører hurtigt muterede deres prompter, mens de bevarede den underliggende hensigt, og cirkulerede gennem overfladisk variationer for at omgå front-end-kontroller. Dette er en mønster, som sikkerhedseksperter har set før. Statisk forsvar, enten baseret på signatur eller indgangsfiltrering, holder ikke mod modstandere, der itererer hurtigere end regelopdateringer kan følge.

Udfordringen forværres, da agenter får autonomi. Moderne AI-agenter opererer ikke i en enkelt udveksling. De udfører multi-step-handlingsserier, der kalder legitime værktøjer og tilladelser på måder, der ser helt normale ud i isolation. En agent, der bruger gyldige legitimationsoplysninger til at opnumre interne API’er, udløser ingen alarm. En agent, der får adgang til følsomme data butikker under, hvad der ligner en rutinearbejdsgang, genererer ingen øjeblikkelig flag. Hver enkelt handling passerer inspektion; farerne bor i kombinationen og sekvensen.

Når Truslen Flytter Nedstrøms

Sikkerholdshold, der forsvarer AI-installationer i dag, står over for en strukturel misligning. Værktøjerne, der er til rådighed for dem, er primært bygget til at forstå, hvad en model er tilladt at sige. Den faktiske risiko, de skal administrere, er, hvad en agent gør på tværs af systemer, netværk og identiteter, når den har fået tilladelser og er sat fri i et produktionsmiljø.

Prompt-baserede sikkerhedsforanstaltninger deler de grundlæggende svagheder fra tidligere regel-drevne sikkerheds tilgange. De er skrøbelige, fordi de afhænger af at forudsige angrebsmønstre i forvejen. De er reaktive, fordi de kræver, at nogen har observeret og kodificeret truslen, før forsvaret kan fungere. Og de er overgået af modstandere, der har antaget AI-assisteret iteration som standardpraksis. En forsvarer, der afhænger af indgangsfiltrering for at fange en truselaktør, der bruger en sprogmodel til at generere friske prompt-variationer, er i en grundlæggende tabende position.

Den virkelige eksponeringsflade opstår efter installation. Agent-drevne handlinger propagerer gennem miljøer på måder, som ingen forudforanstaltningstest kan fuldt ud forudse. Agenter møder kanttilfælde, interagerer med datakilder, de ikke var designet til at håndtere, modtager indgange fra systemer uden for den oprindelige arkitektur og tager beslutninger, der forstærker over tid. Forudforanstaltningstest er et øjebliksbillede; produktion er en kontinuerlig strøm. At forsvare kun øjebliksbilledet betyder, at alt, der sker i strømmen, er effektivt umoniteret.

Flytning af Sikkerhedsgrænsen til Agent-Adfærd

Opbygning af AI-resiliens kræver en anden ramme, og målet skal ikke være at beskytte modellens grænseflade. Det skal være at registrere angrebs-hensigt gennem de observerbare konsekvenser af agent-handlinger. Det er en meningsfuld forskel. Hensigt viser sig ikke altid i, hvad en agent siger eller hvilke indgange den modtager.

Sikring af AI-systemer skal udvides beyond alignment-checks og robusthedsevalueringer til kontinuerlig vurdering af, hvordan agenter opfører sig, når de interagerer med virkelige værktøjer, virkelige API’er og virkelige data. Statisk vurdering på installationstidspunktet er nødvendig, men utilstrækkelig. Trusel-miljøet, som en agent opererer i, ændrer sig konstant. Agent-adfærd skal overvåges med samme kontinuitet.

Dette er et problem, som prompt-hærdning ikke kan løse. Registrering af ondsindet hensigt, mens den opstår gennem handlingsserier, kræver modeller, der kan forstå kompleks, sekventiel adfærd i operativ miljø. Deep learning grundlæggende modeller, specialbyggede til adfærdsanalyse, kan gøre dette på måder, som regel-baserede systemer og traditionel SIEM-værktøjer ikke kan. De lærer, hvad normalt ser ud på tværs af hele konteksten af agent-aktivitet, og de fremhæver afvigelser, der indikerer, at noget har ændret sig, selv når ingen enkelt handling ville udløse en konventionel alarm.

Den underliggende logik gælder uanset installationskonteksten: sikkerhed forankret på prompt-laget vil konsekvent tabe til angribere, der opererer på handling-laget. Forsvaret må flytte til, hvor truslen faktisk bor.

Hvad Sikkerholdshold Skal Gøre Nu

For sikkerhedsledere, der prøver at komme foran dette, kan nogle praktiske ændringer lukke gapet mellem, hvor forsvaret nu er, og hvor det skal være.

Vurder AI-sikkerhed på tværs af hele applikationsstakken. Grundlæggende modellen er et lag. Lige så vigtigt er, hvordan agenter opfører sig, når de er installeret i produktion, hvilke værktøjer de kalder, hvilke tilladelser de bruger og hvordan disse valg udvikler sig over tid. Sikkerheds-vurderinger, der stopper ved modellens grænse, efterlader den operativa overflade stort set uudforsket.

Gennemfør mindst-privilegie-princippet på agent-niveau. AI-agenter skal kun have adgang til de værktøjer, API’er og data, der er nødvendige for deres designerede funktion. Denne begrænsning er vigtig, selv når agentens udgang ser uskyldig ud. At begrænse omfanget reducerer skade-radius af en kompromitteret agent og skaber klarere adfærds-baselines, der gør afvigelses-detection mere effektiv.

Behandle agenter som identiteter, der genererer telemetri. Hver handling, en agent udfører, er et datapunkt. Sikkerholdshold skal bygge detections-logik omkring agent-initierede handlingsserier, ikke kun bruger-prompter, der forudgår dem. Denne omformulering flytter overvågning fra, hvad nogen bad agenten om at gøre, til, hvad agenten faktisk gjorde, hvilket er, hvor angrebs-hensigt bliver synlig.

Investér i kontinuerlig adfærds-overvågning med detections-modeller, specialbyggede til dette formål. Registrering af ondsindet hensigt, mens den opstår gennem handlingsserier, kræver specialiseret kapacitet. Konventionelle overvågningsværktøjer var bygget til menneske-genererede aktivitet-mønstre. Agent-adfærd, med sin hastighed, omfang og multi-step-struktur, kræver detections-infrastruktur designet fra bunden med den kontekst i mente.

Prioriter kollektivt forsvar. AI-drevne angrebsteknikker udvikler sig hurtigere, end nogen enkelt organisation kan spore. Fælles forskning, åben samarbejde og fællesskabs-trusel-intelligence er ikke valgfrie supplerende til en AI-sikkerhedsstrategi; de er kerne-input. Forsvarerne, der holder sig ajour, er dem, der bidrager til og trækker fra fælles viden.

Adfærds-Sikkerhed Leverer Faktisk

For sikkerholdshold, der gør denne ændring, er den operationelle afkast konkrete. At ankre detection i agent-adfærd i stedet for model-udgang ermöglicer tidligere identifikation af ondsindet hensigt, selv når angreb er snigende, adaptive eller krypterede. Angribere, der succesfuldt muterer deres prompter forbi indgangsfilter, skal stadig handle. Disse handlinger efterlader spor. Adfærds-detection finder disse spor, før skade propagerer.

Måske mest betydningsfuldt giver denne tilgang organisationer en troværdig vej til at installere AI-agenter i stor skala uden at acceptere proportionalt sikkerhedsrisiko. Spørgsmålet, der holder mange virksomheder tilbage, er ikke, om AI-agenter kan levere værdi; det er, om de kan installeres med tilstrækkelig tillid til, at sikkerheds-posturen ikke forringes, mens installationen vokser. Adfærds-sikkerhed, grundlagt i, hvordan agenter faktisk opererer, og ikke i, hvad indgange de modtager, giver denne tillid på en måde, som prompt-baserede kontroller strukturelt ikke kan.

Sikkerhedsgrænsen blev tegnet på det forkerte sted, og denne fejl gjorde mening, da AI var et værktøj, der ventede på indgang. Det venter ikke længere, Agentic systemer handler, kæder, eskalerer og forstærker på tværs af miljøer, som ingen forudforanstaltningstest kunne fuldt ud forudse. Organisationer, der erkender dette først, vil være dem, der faktisk skalere AI med tillid. Alle andre vil bruge de næste flere år på at opdage, brud for brud, at kontrollere, hvad en model siger, aldrig var det samme som at kontrollere, hvad den gør.

Mayank Kumar er den grundlæggende AI-ingeniør hos DeepTempo, hvor han leder design og udvikling af virksomhedens grundlæggende Log Language Model (LogLM). Med en stærk akademisk og forskningsmæssig baggrund i generativ og multimodal AI, bringer han specialiseret ekspertise til opbygning af domænespecifikke modeller, der forbedrer trusselforsvar og -reaktion i cybersikkerhedsomgivelser.