Anslut dig till vÄrt nÀtverk!

Tanke ledare

Hallucinationskontroll: Fördelar och risker med att implementera LLM som en del av sÀkerhetsprocesser

Stora sprĂ„kmodeller (LLM) utbildade pĂ„ stora mĂ€ngder data kan göra sĂ€kerhetsoperationsteam smartare. LLM:er ger in-line förslag och vĂ€gledning om svar, revisioner, stĂ€llningshantering och mer. De flesta sĂ€kerhetsteam experimenterar med eller anvĂ€nder LLM:er för att minska manuellt slit i arbetsflöden. Detta kan vara bĂ„de för vardagliga och komplexa uppgifter. 

Till exempel kan en LLM frĂ„ga en anstĂ€lld via e-post om de menade att dela ett dokument som var proprietĂ€rt och bearbeta svaret med en rekommendation till en sĂ€kerhetsutövare. En LLM kan ocksĂ„ ha i uppdrag att översĂ€tta förfrĂ„gningar om att leta efter attacker i leveranskedjan pĂ„ moduler med öppen kĂ€llkod och att skapa agenter som fokuserar pĂ„ specifika förhĂ„llanden – nya bidragsgivare till allmĂ€nt anvĂ€nda bibliotek, felaktiga kodmönster – med varje agent förberedd för det specifika tillstĂ„ndet. 

Som sagt, dessa kraftfulla AI-system bĂ€r betydande risker som skiljer sig frĂ„n andra risker som sĂ€kerhetsteam stĂ„r inför. Modeller som driver sĂ€kerhet LLM:er kan Ă€ventyras genom snabb injektion eller dataförgiftning. Kontinuerliga Ă„terkopplingsslingor och maskininlĂ€rningsalgoritmer utan tillrĂ€cklig mĂ€nsklig vĂ€gledning kan tillĂ„ta dĂ„liga aktörer att undersöka kontroller och sedan framkalla dĂ„ligt riktade svar. LLM Ă€r benĂ€gna att hallucinationer, Ă€ven i begrĂ€nsade domĂ€ner. Även de bĂ€sta LLM:erna hittar pĂ„ saker nĂ€r de inte vet svaret. 

SĂ€kerhetsprocesser och AI-policyer kring LLM-anvĂ€ndning och arbetsflöden kommer att bli mer kritiska nĂ€r dessa system blir vanligare inom cybersĂ€kerhetsverksamhet och forskning. Att se till att dessa processer efterlevs, och mĂ€ts och redovisas i styrningssystem, kommer att visa sig vara avgörande för att sĂ€kerstĂ€lla att CISO:er kan tillhandahĂ„lla tillrĂ€cklig GRC-tĂ€ckning (Governance, Risk and Compliance) för att möta nya uppdrag som Cybersecurity Framework 2.0. 

LLMs enorma löfte inom cybersÀkerhet

CISO:er och deras team kĂ€mpar stĂ€ndigt för att hĂ€nga med i den stigande vĂ„gen av nya cyberattacker. Enligt Qualys trĂ€ffade antalet CVE:er som rapporterades 2023 a nytt rekord pĂ„ 26,447 XNUMX. Det Ă€r mer Ă€n fem gĂ„nger högre Ă€n 5. 

Denna utmaning har bara blivit mer pÄfrestande eftersom attackytan för den genomsnittliga organisationen vÀxer sig större för varje Är som gÄr. AppSec-team mÄste sÀkra och övervaka mÄnga fler mjukvaruapplikationer. Cloud computing, API:er, multi-cloud och virtualiseringstekniker har lagt till ytterligare komplexitet. Med moderna CI/CD-verktyg och processer kan applikationsteam skicka mer kod, snabbare och oftare. Microservices har bÄde splittrat monolitisk app i mÄnga API:er och attackyta och Àven slagit mÄnga fler hÄl i globala brandvÀggar för kommunikation med externa tjÀnster eller kundenheter.

Avancerade LLM:er har ett enormt löfte om att minska arbetsbelastningen för cybersĂ€kerhetsteam och att förbĂ€ttra deras kapacitet. AI-drivna kodningsverktyg har brett penetrerat mjukvaruutveckling. Github-forskning fann att 92 % av utvecklarna anvĂ€nder eller har anvĂ€nt AI-verktyg för kodförslag och komplettering. De flesta av dessa "copilot"-verktyg har vissa sĂ€kerhetsfunktioner. Faktum Ă€r att programmatiska discipliner med relativt binĂ€ra utfall som kodning (koden kommer antingen att klara eller misslyckas i enhetstester) Ă€r vĂ€l lĂ€mpade för LLM. Utöver kodskanning för mjukvaruutveckling och i CI/CD-pipelinen kan AI vara vĂ€rdefullt för cybersĂ€kerhetsteam pĂ„ flera andra sĂ€tt:   

  • FörbĂ€ttrad analys: LLM:er kan bearbeta enorma mĂ€ngder sĂ€kerhetsdata (loggar, varningar, hotintelligens) för att identifiera mönster och samband som Ă€r osynliga för mĂ€nniskor. De kan göra detta pĂ„ olika sprĂ„k, dygnet runt och över flera dimensioner samtidigt. Detta öppnar nya möjligheter för sĂ€kerhetsteam. LLM:er kan brĂ€nna ner en hög med varningar i nĂ€stan realtid och flagga de som Ă€r mest sannolikt att vara allvarliga. Genom förstĂ€rkningsinlĂ€rning bör analysen förbĂ€ttras över tid. 
  • Automation: LLM:er kan automatisera sĂ€kerhetsteamuppgifter som normalt krĂ€ver samtal fram och tillbaka. Till exempel, nĂ€r ett sĂ€kerhetsteam fĂ„r en IoC och behöver frĂ„ga Ă€garen av en slutpunkt om de faktiskt har loggat in pĂ„ en enhet eller om de befinner sig nĂ„gonstans utanför sina normala arbetszoner, kan LLM utföra dessa enkla operationer och sedan följa upp med frĂ„gor efter behov och lĂ€nkar eller instruktioner. Detta brukade vara en interaktion som en IT- eller sĂ€kerhetsteammedlem var tvungen att utföra sjĂ€lva. LLM kan ocksĂ„ ge mer avancerad funktionalitet. Till exempel kan en Microsoft Copilot for Security generera incidentanalysrapporter och översĂ€tta komplex skadlig kod till naturliga sprĂ„kbeskrivningar. 
  • Kontinuerlig inlĂ€rning och instĂ€llning: Till skillnad frĂ„n tidigare maskininlĂ€rningssystem för sĂ€kerhetspolicyer och förstĂ„else, kan LLM:er lĂ€ra sig i farten genom att inta mĂ€nskliga betyg av dess svar och genom att Ă„terstĂ€lla in nyare datapooler som kanske inte finns i interna loggfiler. Faktum Ă€r att med samma underliggande grundmodell kan LLM:er för cybersĂ€kerhet anpassas för olika team och deras behov, arbetsflöden eller regionala eller vertikala specifika uppgifter. Detta innebĂ€r ocksĂ„ att hela systemet omedelbart kan bli lika smart som modellen, med förĂ€ndringar som sprider sig snabbt över alla grĂ€nssnitt. 

Risk för LLM för cybersÀkerhet

Som en ny teknik med korta meriter har LLM:er allvarliga risker. Vad vĂ€rre Ă€r, att förstĂ„ den fulla omfattningen av dessa risker Ă€r utmanande eftersom LLM-utdata inte Ă€r 100 % förutsĂ€gbara eller programmatiska. Till exempel kan LLM:er "hallucinera" och hitta pĂ„ svar eller svara felaktigt pĂ„ frĂ„gor, baserat pĂ„ imaginĂ€ra data. Innan man antar LLM:er för anvĂ€ndningsfall för cybersĂ€kerhet mĂ„ste man övervĂ€ga potentiella risker inklusive: 

  • Snabb injektion:  Angripare kan skapa skadliga uppmaningar specifikt för att producera vilseledande eller skadliga utdata. Denna typ av attack kan utnyttja LLM:s tendens att generera innehĂ„ll baserat pĂ„ de uppmaningar den fĂ„r. I fall med anvĂ€ndning av cybersĂ€kerhet kan snabb injektion vara mest riskabel som en form av insiderattack eller attack av en obehörig anvĂ€ndare som anvĂ€nder uppmaningar för att permanent Ă€ndra systemutdata genom att snedvrida modellbeteende. Detta kan generera felaktiga eller ogiltiga utdata för andra anvĂ€ndare av systemet. 
  • Dataförgiftning:  Utbildningsdata som LLM förlitar sig pĂ„ kan avsiktligt skadas, vilket Ă€ventyrar deras beslutsfattande. I cybersĂ€kerhetsinstĂ€llningar, dĂ€r organisationer sannolikt anvĂ€nder modeller som utbildats av verktygsleverantörer, kan dataförgiftning intrĂ€ffa under justeringen av modellen för den specifika kunden och anvĂ€ndningsfallet. Risken hĂ€r kan vara att en obehörig anvĂ€ndare lĂ€gger till dĂ„lig data – till exempel korrupta loggfiler – för att undergrĂ€va trĂ€ningsprocessen. En auktoriserad anvĂ€ndare kan ocksĂ„ göra detta av misstag. Resultatet skulle bli LLM-utgĂ„ngar baserade pĂ„ dĂ„liga data.
  • Hallucinationer: Som nĂ€mnts tidigare kan LLM:er generera faktuella felaktiga, ologiska eller till och med skadliga svar pĂ„ grund av missförstĂ„nd av uppmaningar eller underliggande databrister. I fall med anvĂ€ndning av cybersĂ€kerhet kan hallucinationer resultera i kritiska fel som försvagar hotintelligens, sĂ„rbarhetsutredning och Ă„tgĂ€rdande med mera. Eftersom cybersĂ€kerhet Ă€r en affĂ€rskritisk aktivitet mĂ„ste LLM:er hĂ„llas till en högre standard för att hantera och förebygga hallucinationer i dessa sammanhang. 

NĂ€r AI-system blir mer kapabla, expanderar deras informationssĂ€kerhetsinstallationer snabbt. För att vara tydlig har mĂ„nga cybersĂ€kerhetsföretag lĂ€nge anvĂ€nt mönstermatchning och maskininlĂ€rning för dynamisk filtrering. Det som Ă€r nytt i den generativa AI-eran Ă€r interaktiva LLM:er som tillhandahĂ„ller ett lager av intelligens ovanpĂ„ befintliga arbetsflöden och datapooler, vilket idealiskt förbĂ€ttrar effektiviteten och förbĂ€ttrar kapaciteten hos cybersĂ€kerhetsteam. Med andra ord kan GenAI hjĂ€lpa sĂ€kerhetsingenjörer att göra mer med mindre anstrĂ€ngning och samma resurser, vilket ger bĂ€ttre prestanda och accelererade processer. 

Aqsa Taylor, författare till "Process Mining: SÀkerhetsvinkeln" ebook, Àr Director of Product Management pÄ Modig, en startup för cybersÀkerhet som specialiserat sig pÄ process mining för sÀkerhetsoperationer. En specialist pÄ molnsÀkerhet, Aqsa var den första lösningsingenjören och eskaleringsingenjören pÄ Twistlock, den banbrytande leverantören av containersÀkerhet som förvÀrvades av Palo Alto Networks för 410 miljoner USD 2019. PÄ Palo Alto Networks fungerade Aqsa som produktlinjechef med ansvar för att introducera agentless arbetsbelastningssÀkerhet och generellt integrera arbetsbelastningssÀkerhet i Prisma Cloud, Palo Alto Networks Cloud Native Application Protection Platform. Under hela sin karriÀr har Aqsa hjÀlpt mÄnga företagsorganisationer frÄn olika industrisektorer, inklusive 45 % av Fortune 100-företagen, att förbÀttra sina molnsÀkerhetsutsikter.