Tanke ledare
Hallucinationskontroll: Fördelar och risker med att implementera LLM som en del av sÀkerhetsprocesser

Stora sprÄkmodeller (LLM) utbildade pÄ stora mÀngder data kan göra sÀkerhetsoperationsteam smartare. LLM:er ger in-line förslag och vÀgledning om svar, revisioner, stÀllningshantering och mer. De flesta sÀkerhetsteam experimenterar med eller anvÀnder LLM:er för att minska manuellt slit i arbetsflöden. Detta kan vara bÄde för vardagliga och komplexa uppgifter.
Till exempel kan en LLM frĂ„ga en anstĂ€lld via e-post om de menade att dela ett dokument som var proprietĂ€rt och bearbeta svaret med en rekommendation till en sĂ€kerhetsutövare. En LLM kan ocksĂ„ ha i uppdrag att översĂ€tta förfrĂ„gningar om att leta efter attacker i leveranskedjan pĂ„ moduler med öppen kĂ€llkod och att skapa agenter som fokuserar pĂ„ specifika förhĂ„llanden â nya bidragsgivare till allmĂ€nt anvĂ€nda bibliotek, felaktiga kodmönster â med varje agent förberedd för det specifika tillstĂ„ndet.
Som sagt, dessa kraftfulla AI-system bĂ€r betydande risker som skiljer sig frĂ„n andra risker som sĂ€kerhetsteam stĂ„r inför. Modeller som driver sĂ€kerhet LLM:er kan Ă€ventyras genom snabb injektion eller dataförgiftning. Kontinuerliga Ă„terkopplingsslingor och maskininlĂ€rningsalgoritmer utan tillrĂ€cklig mĂ€nsklig vĂ€gledning kan tillĂ„ta dĂ„liga aktörer att undersöka kontroller och sedan framkalla dĂ„ligt riktade svar. LLM Ă€r benĂ€gna att hallucinationer, Ă€ven i begrĂ€nsade domĂ€ner. Ăven de bĂ€sta LLM:erna hittar pĂ„ saker nĂ€r de inte vet svaret.
SÀkerhetsprocesser och AI-policyer kring LLM-anvÀndning och arbetsflöden kommer att bli mer kritiska nÀr dessa system blir vanligare inom cybersÀkerhetsverksamhet och forskning. Att se till att dessa processer efterlevs, och mÀts och redovisas i styrningssystem, kommer att visa sig vara avgörande för att sÀkerstÀlla att CISO:er kan tillhandahÄlla tillrÀcklig GRC-tÀckning (Governance, Risk and Compliance) för att möta nya uppdrag som Cybersecurity Framework 2.0.
LLMs enorma löfte inom cybersÀkerhet
CISO:er och deras team kÀmpar stÀndigt för att hÀnga med i den stigande vÄgen av nya cyberattacker. Enligt Qualys trÀffade antalet CVE:er som rapporterades 2023 a nytt rekord pÄ 26,447 XNUMX. Det Àr mer Àn fem gÄnger högre Àn 5.
Denna utmaning har bara blivit mer pÄfrestande eftersom attackytan för den genomsnittliga organisationen vÀxer sig större för varje Är som gÄr. AppSec-team mÄste sÀkra och övervaka mÄnga fler mjukvaruapplikationer. Cloud computing, API:er, multi-cloud och virtualiseringstekniker har lagt till ytterligare komplexitet. Med moderna CI/CD-verktyg och processer kan applikationsteam skicka mer kod, snabbare och oftare. Microservices har bÄde splittrat monolitisk app i mÄnga API:er och attackyta och Àven slagit mÄnga fler hÄl i globala brandvÀggar för kommunikation med externa tjÀnster eller kundenheter.
Avancerade LLM:er har ett enormt löfte om att minska arbetsbelastningen för cybersÀkerhetsteam och att förbÀttra deras kapacitet. AI-drivna kodningsverktyg har brett penetrerat mjukvaruutveckling. Github-forskning fann att 92 % av utvecklarna anvÀnder eller har anvÀnt AI-verktyg för kodförslag och komplettering. De flesta av dessa "copilot"-verktyg har vissa sÀkerhetsfunktioner. Faktum Àr att programmatiska discipliner med relativt binÀra utfall som kodning (koden kommer antingen att klara eller misslyckas i enhetstester) Àr vÀl lÀmpade för LLM. Utöver kodskanning för mjukvaruutveckling och i CI/CD-pipelinen kan AI vara vÀrdefullt för cybersÀkerhetsteam pÄ flera andra sÀtt:
- FörbÀttrad analys: LLM:er kan bearbeta enorma mÀngder sÀkerhetsdata (loggar, varningar, hotintelligens) för att identifiera mönster och samband som Àr osynliga för mÀnniskor. De kan göra detta pÄ olika sprÄk, dygnet runt och över flera dimensioner samtidigt. Detta öppnar nya möjligheter för sÀkerhetsteam. LLM:er kan brÀnna ner en hög med varningar i nÀstan realtid och flagga de som Àr mest sannolikt att vara allvarliga. Genom förstÀrkningsinlÀrning bör analysen förbÀttras över tid.
- Automation: LLM:er kan automatisera sÀkerhetsteamuppgifter som normalt krÀver samtal fram och tillbaka. Till exempel, nÀr ett sÀkerhetsteam fÄr en IoC och behöver frÄga Àgaren av en slutpunkt om de faktiskt har loggat in pÄ en enhet eller om de befinner sig nÄgonstans utanför sina normala arbetszoner, kan LLM utföra dessa enkla operationer och sedan följa upp med frÄgor efter behov och lÀnkar eller instruktioner. Detta brukade vara en interaktion som en IT- eller sÀkerhetsteammedlem var tvungen att utföra sjÀlva. LLM kan ocksÄ ge mer avancerad funktionalitet. Till exempel kan en Microsoft Copilot for Security generera incidentanalysrapporter och översÀtta komplex skadlig kod till naturliga sprÄkbeskrivningar.
- Kontinuerlig inlÀrning och instÀllning: Till skillnad frÄn tidigare maskininlÀrningssystem för sÀkerhetspolicyer och förstÄelse, kan LLM:er lÀra sig i farten genom att inta mÀnskliga betyg av dess svar och genom att ÄterstÀlla in nyare datapooler som kanske inte finns i interna loggfiler. Faktum Àr att med samma underliggande grundmodell kan LLM:er för cybersÀkerhet anpassas för olika team och deras behov, arbetsflöden eller regionala eller vertikala specifika uppgifter. Detta innebÀr ocksÄ att hela systemet omedelbart kan bli lika smart som modellen, med förÀndringar som sprider sig snabbt över alla grÀnssnitt.
Risk för LLM för cybersÀkerhet
Som en ny teknik med korta meriter har LLM:er allvarliga risker. Vad vÀrre Àr, att förstÄ den fulla omfattningen av dessa risker Àr utmanande eftersom LLM-utdata inte Àr 100 % förutsÀgbara eller programmatiska. Till exempel kan LLM:er "hallucinera" och hitta pÄ svar eller svara felaktigt pÄ frÄgor, baserat pÄ imaginÀra data. Innan man antar LLM:er för anvÀndningsfall för cybersÀkerhet mÄste man övervÀga potentiella risker inklusive:
- Snabb injektion: Angripare kan skapa skadliga uppmaningar specifikt för att producera vilseledande eller skadliga utdata. Denna typ av attack kan utnyttja LLM:s tendens att generera innehÄll baserat pÄ de uppmaningar den fÄr. I fall med anvÀndning av cybersÀkerhet kan snabb injektion vara mest riskabel som en form av insiderattack eller attack av en obehörig anvÀndare som anvÀnder uppmaningar för att permanent Àndra systemutdata genom att snedvrida modellbeteende. Detta kan generera felaktiga eller ogiltiga utdata för andra anvÀndare av systemet.
- Dataförgiftning: Utbildningsdata som LLM förlitar sig pĂ„ kan avsiktligt skadas, vilket Ă€ventyrar deras beslutsfattande. I cybersĂ€kerhetsinstĂ€llningar, dĂ€r organisationer sannolikt anvĂ€nder modeller som utbildats av verktygsleverantörer, kan dataförgiftning intrĂ€ffa under justeringen av modellen för den specifika kunden och anvĂ€ndningsfallet. Risken hĂ€r kan vara att en obehörig anvĂ€ndare lĂ€gger till dĂ„lig data â till exempel korrupta loggfiler â för att undergrĂ€va trĂ€ningsprocessen. En auktoriserad anvĂ€ndare kan ocksĂ„ göra detta av misstag. Resultatet skulle bli LLM-utgĂ„ngar baserade pĂ„ dĂ„liga data.
- Hallucinationer: Som nÀmnts tidigare kan LLM:er generera faktuella felaktiga, ologiska eller till och med skadliga svar pÄ grund av missförstÄnd av uppmaningar eller underliggande databrister. I fall med anvÀndning av cybersÀkerhet kan hallucinationer resultera i kritiska fel som försvagar hotintelligens, sÄrbarhetsutredning och ÄtgÀrdande med mera. Eftersom cybersÀkerhet Àr en affÀrskritisk aktivitet mÄste LLM:er hÄllas till en högre standard för att hantera och förebygga hallucinationer i dessa sammanhang.
NÀr AI-system blir mer kapabla, expanderar deras informationssÀkerhetsinstallationer snabbt. För att vara tydlig har mÄnga cybersÀkerhetsföretag lÀnge anvÀnt mönstermatchning och maskininlÀrning för dynamisk filtrering. Det som Àr nytt i den generativa AI-eran Àr interaktiva LLM:er som tillhandahÄller ett lager av intelligens ovanpÄ befintliga arbetsflöden och datapooler, vilket idealiskt förbÀttrar effektiviteten och förbÀttrar kapaciteten hos cybersÀkerhetsteam. Med andra ord kan GenAI hjÀlpa sÀkerhetsingenjörer att göra mer med mindre anstrÀngning och samma resurser, vilket ger bÀttre prestanda och accelererade processer.