Anslut dig till vÄrt nÀtverk!

Tanke ledare

SĂ€kerhetsproblemen vi byggde in: AI-agenter och problemet med lydnad

mm

LLM-baserade AI-agenter introducerar en ny klass av sÄrbarheter, dÀr angripare injicerar skadliga instruktioner i data och förvandlar hjÀlpsamma system till omedvetna medbrottslingar.

Microsoft Copilot hackades inte i traditionell bemÀrkelse. Det fanns ingen skadlig kod, ingen nÀtfiskelÀnk, ingen skadlig kod. Ingen klickade pÄ nÄgot eller anvÀnde nÄgon exploit.

Hotaktören frÄgade helt enkelt. Microsoft 365 Copilot, som gjorde precis vad den var byggd för att göra, följde kraven. Under den senaste tiden Echoleak I en nollklickattack manipulerades AI-agenten av en prompt förklÀdd till data. Den lydde, inte för att den var trasig, utan för att den fungerade som den var avsedd att.

Denna sÄrbarhet utnyttjade inte programvarufel. Den utnyttjade sprÄk. Och det markerar en viktig vÀndpunkt inom cybersÀkerhet, dÀr attackytan inte lÀngre Àr kod utan konversation.

Det nya AI-lydnadsproblemet

AI-medel Àr utformade för att hjÀlpa. Deras syfte Àr att förstÄ anvÀndarnas avsikt och agera effektivt utifrÄn den. Den nyttan medför risker. NÀr dessa agenter Àr inbÀddade i filsystem, produktivitetsplattformar eller operativsystem följer de kommandon pÄ naturligt sprÄk med minimalt motstÄnd.

Hotaktörer utnyttjar just den egenskapen. Med snabba injektioner som verkar oskyldiga kan de utlösa kÀnsliga ÄtgÀrder. Dessa uppmaningar kan inkludera:

  • FlersprĂ„kiga kodavsnitt
  • Obskyra filformat och inbĂ€ddade instruktioner
  • Inmatningar pĂ„ andra sprĂ„k Ă€n engelska
  • Flerstegskommandon dolda i vardagligt sprĂ„k

Eftersom stora sprÄkmodeller (LLM) Àr trÀnade att förstÄ komplexitet och tvetydighet blir prompten nyttolasten.

Siris och Alexas spöke

Det hÀr mönstret Àr inte nytt. I Siris och Alexas tidiga dagar hade forskare demonstreras hur uppspelning av ett röstkommando som "Skicka alla mina foton till den hÀr e-postadressen" kan utlösa en ÄtgÀrd utan anvÀndarverifiering.

Nu Àr hotet större. AI-agenter som Microsoft Copilot Àr djupt integrerade i Office 365, Outlook och operativsystemet. De fÄr Ätkomst till e-postmeddelanden, dokument, inloggningsuppgifter och API:er. Angripare behöver bara rÀtt prompt för att extrahera kritisk data, samtidigt som de utger sig för att vara en legitim anvÀndare.

NÀr datorer misstar instruktioner för data

Detta Àr inte en ny princip inom cybersÀkerhet. Injektioner som SQL-attacker lyckades eftersom systemen inte kunde skilja mellan inmatning och instruktion. Idag finns samma brist, men pÄ sprÄklagret.

AI-agenter behandlar naturligt sprÄk som bÄde inmatning och avsikt. Ett JSON-objekt, en frÄga eller till och med en fras kan initiera en ÄtgÀrd. Denna tvetydighet Àr vad hotaktörer utnyttjar, genom att bÀdda in kommandon i vad som ser ut som harmlöst innehÄll.

Vi har integrerat avsikter i infrastrukturen. Nu har hotaktörer lÀrt sig hur de ska utvinna dem för att göra vad de vill.

AI-implementeringen övertrÀffar cybersÀkerhet

I takt med att företag skyndar sig att integrera juridikstudier (LLMs) förbiser mÄnga en kritisk frÄga: vad har AI tillgÄng till?

NÀr Copilot kan röra operativsystemet expanderar explosionsradien lÄngt bortom inkorgen. Enligt Check Points AI-sÀkerhetsrapport:

  • 62 procent av globala informationssĂ€kerhetschefer (CISO:er) fruktar att de kan hĂ„llas personligen ansvariga för AI-relaterade intrĂ„ng
  • NĂ€stan 40 procent av organisationerna rapporterar icke-godkĂ€nd intern anvĂ€ndning av AI, ofta utan sĂ€kerhetsövervakning.
  • 20 procent av cyberkriminella grupper integrerar nu AI i sin verksamhet, inklusive för att skapa nĂ€tfiske och utföra rekognoscering

Detta Àr inte bara en framvÀxande risk. Det Àr en befintlig risk som redan orsakar skada.

Varför befintliga skyddsÄtgÀrder inte rÀcker till

Vissa leverantörer anvĂ€nder vakthundar – sekundĂ€ra modeller som trĂ€nats för att upptĂ€cka farliga uppmaningar eller misstĂ€nkt beteende. Dessa filter kan upptĂ€cka grundlĂ€ggande hot men Ă€r sĂ„rbara för undanflykter.

Hotaktörer kan:

  • Överbelastade filter med brus
  • Dela upp avsikten över flera steg
  • AnvĂ€nd icke-uppenbar formulering för att kringgĂ„ detektering

I fallet med Echoleak fanns skyddsĂ„tgĂ€rder – och de kringgicks. Detta Ă„terspeglar inte bara ett misslyckande i policyn, utan ocksĂ„ ett misslyckande i arkitekturen. NĂ€r en agent har behörigheter pĂ„ hög nivĂ„ men kontext pĂ„ lĂ„g nivĂ„, kommer Ă€ven bra skyddsrĂ€cken att misslyckas.

UpptÀckt, inte perfektion

Att förhindra varje attack kan vara orealistiskt. MÄlet mÄste vara snabb upptÀckt och snabb inneslutning.

Organisationer kan börja med att:

  • Övervaka AI-agentaktivitet i realtid och upprĂ€tthĂ„lla snabba granskningsloggar
  • TillĂ€mpa strikt Ă„tkomst med minsta behörighet till AI-verktyg, spegla kontroller pĂ„ administratörsnivĂ„
  • Ökar friktionen vid kĂ€nsliga operationer, som att krĂ€va bekrĂ€ftelser
  • Flagg ovanliga eller kontradiktoriska uppmaningsmönster för granskning

SprÄkbaserade attacker kommer inte att förekomma i traditionella slutpunktsdetektering och svar (EDR)-verktyg. De krÀver en ny detektionsmodell.

Vad organisationer bör göra nu för att skydda sig sjÀlva

Innan organisationer anvÀnder AI-agenter mÄste de förstÄ hur dessa system fungerar och vilka risker de medför.

Viktiga rekommendationer inkluderar:

  1. Granska all Ätkomst: Vet vilka agenter som kan röra vid eller utlösa
  2. BegrÀnsa omfattningen: Bevilja minsta nödvÀndiga behörigheter
  3. SpÄra alla interaktioner: Logga uppmaningar, svar och resulterande ÄtgÀrder
  4. Stresstest: Simulera motstÄndskraftiga insignaler internt och ofta
  5. Plan för kringgÄende: Anta att filter kommer att kringgÄs
  6. Anpassa till sÀkerhet: Se till att LLM-system stöder, inte komprometterar, sÀkerhetsmÄl

Den nya attackytan

Echoleak Ă€r en förhandsvisning av vad som komma skall. I takt med att juridiktekniker utvecklas blir deras hjĂ€lpsamhet en belastning. De Ă€r djupt integrerade i affĂ€rssystem och erbjuder angripare ett nytt sĂ€tt att komma in – genom enkla, vĂ€l utformade uppmaningar.

Det hÀr handlar inte lÀngre bara om att sÀkra kod. Det handlar om att sÀkra sprÄk, avsikt och sammanhang. Handlingsschemat mÄste förÀndras nu, innan det Àr för sent.

Och ÀndÄ finns det nÄgra goda nyheter. Det görs framsteg nÀr det gÀller att utnyttja AI-agenter för att försvara mot nya och framvÀxande cyberhot. NÀr de utnyttjas pÄ rÀtt sÀtt kan dessa autonoma AI-agenter reagera pÄ hot snabbare Àn nÄgon mÀnniska, samarbeta över olika miljöer och proaktivt försvara sig mot framvÀxande risker genom att lÀra sig av ett enda intrÄngsförsök.

Agentbaserad AI kan lĂ€ra sig av varje attack, anpassa sig i realtid och förhindra hot innan de sprids. Den har potential att skapa en ny era av cybermotstĂ„ndskraft, men bara om vi tar vara pĂ„ detta tillfĂ€lle och formar framtiden för cybersĂ€kerhet tillsammans. Om vi ​​inte gör det kan denna nya era signalera en mardröm inom cybersĂ€kerhet och dataskydd för organisationer som redan har implementerat AI (ibland till och med omedvetet med skugg-IT-verktyg). Nu Ă€r det dags att vidta Ă„tgĂ€rder för att sĂ€kerstĂ€lla att AI-agenter anvĂ€nds till vĂ„r fördel istĂ€llet för vĂ„r undergĂ„ng.

Radoslaw Madej Àr ledare för sÄrbarhetsforskningsgruppen pÄ Check Point ResearchRadoslaw Àr en passionerad expert pÄ cybersÀkerhet med nÀstan tvÄ decenniers teknisk erfarenhet inom olika omrÄden inom informationssÀkerhet genom att leverera projekt för globala företag med höga sÀkerhetskrav.