Connect with us

Varför chatbot-säkerhetsåtgärder är fel säkerhetsgräns

Tankeledare

Varför chatbot-säkerhetsåtgärder är fel säkerhetsgräns

mm

Företags-AI har kommit långt beyond bevis-på-koncept-stadiet. 23% av organisationer har redan skalförd agentic AI-system någonstans i sin verksamhet, och 62% är åtminstone experimenterar med AI-agenter. Dessa är inte forskningsprojekt. De är produktionsdistributioner, inbäddade i arbetsflöden som berör kodrepositoryer, kunddata, interna API:er och operativ infrastruktur.

Branschens svar på denna tillväxt har till stor del fokuserat på vad som händer innan en agent går live. Leverantörer och forskare har lagt energi på för-distributionsskydd: publicering av skalningspolicys, förstärkning av grundmodeller, filtrering av indata, säkring av AI-levant kedja och genomdrivande av anpassning vid tränings tid. Stora AI-leverantörer har gjort betydande investeringar i utvecklar-vända säkerhetsverktyg, förstärkande en central antagande: om modellen och dess indata är kontrollerade, kan nedströmsrisker innehållas.

Det är en rimlig instinkt, men en alltmer ofullständig en.

Prompten är inte en säkerhetsperimeter

Säkerhetsåtgärder som opererar vid modellgränssnittet gynnar primärt team som kontrollerar applikationskoden, modellkonfigurationen och den underliggande infrastrukturen. De erbjuder mycket mindre skydd till försvarare som är uppgift att säkra AI-system som de inte byggt och inte kan modifiera. Det är en betydande blind fläck, och motståndare har redan hittat den.

OpenAI:s senaste hot-intelligensrapport dokumenterar exakt denna dynamik. Hotaktörer utnyttjar aktivt ChatGPT och liknande verktyg i produktionsmiljöer, inte genom att uppfinna nya attacktekniker, utan genom att införliva AI i befintliga arbetsflöden för att flytta snabbare. Rekognosering blir mer effektiv. Social ingenjörskap skalar. Malware-utveckling accelererar. Angreppsytan har inte fundamentalt ändrats; hastigheten och volymen av exploatering har.

Mer talande är hur angriparna svarade när dessa verktyg tryckte tillbaka. OpenAI observerade hotaktörer som snabbt muterade sina prompter, bevarande den underliggande avsikten medan de cirkulerade genom yttre variationer för att kringgå front-end-kontroller. Detta är ett mönster som säkerhetspraktiker har sett tidigare. Statiska försvar, antingen signaturbaserat antivirus eller indatafiltrering, håller inte mot motståndare som itererar snabbare än regeluppdateringar kan följa.

Utmaningen förvärras när agenter får autonomi. Moderna AI-agenter opererar inte i en enskild utbyte. De utför multi-stegsåtgärdsserier, anropar legitima verktyg och behörigheter på sätt som verkar helt normala i isolering. En agent som använder giltiga autentiseringsuppgifter för att uppräkna interna API:er utlöser ingen varning. En agent som kommer åt känsliga dataarkiv under vad som ser ut som ett rutinmässigt arbetsflöde genererar ingen omedelbar flagga. Varje enskild åtgärd passerar inspektion; faran bor i kombinationen och sekvensen.

När hotet flyttar nedströms

Säkerhetsteam som försvarar AI-distributioner idag står inför en strukturell missmatch. Verktygen som är tillgängliga för dem är till stor del byggda för att resonera om vad en modell är tillåten att säga. Den faktiska risken de behöver hantera är vad en agent gör över system, nätverk och identiteter när den har fått behörighet och släppts fri i en produktionsmiljö.

Promptbaserade säkerhetsåtgärder delar de grundläggande svagheterna med tidigare regelstyrda säkerhetsapprocher. De är sköra eftersom de beror på att förutsäga attackmönster i förväg. De är reaktiva eftersom de kräver att någon har observerat och kodat hotet innan försvaret kan fungera. Och de är utmanade av motståndare som har antagit AI-assisterad iteration som standardpraxis. En försvarare som förlitar sig på indatafiltrering för att fånga en hotaktör som använder en språkmodell för att generera färska promptvariationer är i en grundläggande förlorarposition.

Den verkliga exponeringsytan efter distributionen. Agentdrivna åtgärder sprider sig genom miljöer på sätt som ingen pre-launch-test kan fullständigt förutse. Agenter möter edge-fall, interagerar med datakällor de inte var designade att hantera, tar emot indata från system utanför den ursprungliga arkitekturen och fattar beslut som förstärks över tid. Pre-deploymentstest är en ögonblicksbild; produktion är en kontinuerlig ström. Att försvara endast ögonblicksbilden innebär att allt som händer i strömmen i princip är oövervakat.

Att flytta säkerhetsgränsen till agentbeteende

Att bygga AI-resiliens kräver en annan ram och målet bör inte vara att skydda modellgränssnittet. Det bör vara att upptäcka angriparens avsikt genom de observerbara konsekvenserna av agentåtgärder. Det är en meningsfull distinktion. Avsikt visas inte alltid i vad en agent säger eller vilka indata den tar emot.

Att säkra AI-system måste utökas beyond anpassningskontroller och robusthetsevaluationer till kontinuerlig utvärdering av hur agenter beter sig när de interagerar med riktiga verktyg, riktiga API:er och riktiga data. Statisk utvärdering vid distributionstid är nödvändig men otillräcklig. Hotmiljön som en agent opererar i förändras konstant. Agentbeteende behöver övervakas med samma kontinuitet.

Detta är ett problem som prompt-hårdning inte kan lösa. Att upptäcka illvillig avsikt när den uppstår genom åtgärdsserier kräver modeller som kan förstå komplex, sekventiell beteende i operativa miljöer. Deep learning-grundmodeller som är specialbyggda för beteendeanalys kan göra detta på sätt som regelbaserade system och traditionell SIEM-verktyg inte kan. De lär sig vad normalt ser ut över hela sammanhanget av agentaktivitet och visar avvikelser som indikerar att något har förändrats, även när ingen enskild åtgärd skulle utlösa en konventionell varning.

Den underliggande logiken gäller oavsett distributionskontext: säkerhet förankrad vid prompt-lagret kommer konsekvent att förlora mot angripare som opererar vid åtgärds-lagret. Försvaret måste flytta till där hotet faktiskt bor.

Vad säkerhetsteam bör göra nu

För säkerhetsledare som försöker komma före detta, kan några praktiska skift stänga gapet mellan var försvar för närvarande sitter och var de behöver vara.

Utvärdera AI-säkerhet över hela applikationsstacken. Grundmodellen är ett lager. Lika viktigt är hur agenter beter sig när de distribueras till produktion, vilka verktyg de anropar, vilka behörigheter de använder och hur dessa val utvecklas över tid. Säkerhetsutvärderingar som slutar vid modellgränsen lämnar den operativa ytan till stor del oexaminerad.

Genomdriv least privilege på agentnivå. AI-agenter bör ha åtkomst endast till de verktyg, API:er och data som är nödvändiga för deras avsedda funktion. Denna begränsning är viktig även när agentens utdata verkar ofarliga. Att begränsa omfattning minskar spridningsradie för en komprometterad agent och skapar tydligare beteendebaslinjer som gör avvikelseupptäckt mer effektiv.

Behandla agenter som identiteter som genererar telemetri. Varje åtgärd en agent tar är en datapunkt. Säkerhetsteam bör bygga upptäcktslogik runt agent-initierade åtgärdskedjor, inte bara användarprompter som föregår dem. Denna omformulering flyttar övervakning från vad någon bad agenten att göra till vad agenten faktiskt gjorde, vilket är där angriparens avsikt blir synlig.

Investera i kontinuerlig beteendeanalys med upptäcktsmodeller som är specialbyggda för detta ändamål. Att identifiera illvillig avsikt när den uppstår genom åtgärdsserier kräver specialiserad kapacitet. Konventionella övervakningsverktyg byggdes för mänsklig genererad aktivitet. Agentbeteende, med dess hastighet, volym och multi-steg-struktur, kräver upptäktsinfrastruktur som är designad från grunden med detta sammanhang i åtanke.

Prioritera kollektivt försvar. AI-drivna attacktekniker utvecklas snabbare än någon enskild organisation kan spåra. Delad forskning, öppen samarbete och gemensam hot-intelligens är inte valfria komplement till en AI-säkerhetsstrategi; de är kärninput. Försvarare som håller sig uppdaterade är de som bidrar till och drar från kollektiv kunskap.

Beteendesäkerhet fungerar faktiskt

För säkerhetsteam som gör detta skift, är den operativa avkastningen konkret. Att förankra upptäckt i agentbeteende snarare än modellutdata möjliggör tidigare identifiering av illvillig avsikt, även när attacker är smygande, anpassningsbara eller krypterade. Angripare som lyckas mutera sina prompter förbi indatafilter måste fortfarande agera. Dessa åtgärder lämnar spår. Beteendeanalys hittar dessa spår innan skada sprider sig.

Kanske mest betydelsefullt är att detta tillvägagångssätt ger organisationer en trovärdig väg för att distribuera AI-agenter i stor skala utan att acceptera proportionell säkerhetsrisk. Frågan som håller många företag tillbaka är inte om AI-agenter kan leverera värde; det är om de kan distribueras med tillräcklig säkerhet för att säkerhetsposturen inte försämras när distributionen växer. Beteendesäkerhet, grundad i hur agenter faktiskt opererar snarare än i vilka indata de tar emot, ger denna säkerhet på sätt som prompt-baserade kontroller strukturmässigt inte kan.

Säkerhetsgränsen drogs vid fel plats, och det misstaget gjorde mening när AI var ett verktyg som väntade på indata. Det väntar inte längre, Agenta system agerar, kedjor, eskalerar och förstärker över miljöer som ingen pre-distributionstest kunde förutse. Organisationer som erkänner detta tidigast kommer att vara de som faktiskt skalförd AI med säkerhet. Alla andra kommer att tillbringa de närmaste åren med att upptäcka, intrång för intrång, att kontrollera vad en modell säger aldrig var detsamma som att kontrollera vad den gör.

Mayank Kumar är den grundande AI-ingenjören på DeepTempo, där han leder design och utveckling av företagets grundläggande Log Language Model (LogLM). Med en stark akademisk och forskningsbakgrund inom generativ och multimodal AI, bringar han specialiserad expertis till att bygga domänspecifika modeller som förbättrar hotdetektering och respons i cybersäkerhetsmiljöer.