Connect with us

Cybersikkerhet

Forbedring av kode Sikkerhet: Belønninger og Risiko ved å bruke LLM for proaktiv sårbarhetsdeteksjon

mm

I det dynamiske landskapet av cybersecurity, hvor trusler konstant utvikler seg, er det viktig å holde seg foran potensielle sårbarheter i kode. En måte som holder løfte er integrering av AI og Large Language Models (LLMs). Utnyttelse av disse teknologiene kan bidra til tidlig oppdaging og mitigering av sårbarheter i biblioteker som ikke er oppdaget tidligere, og styrke den totale sikkerheten til programvareapplikasjoner. Eller som vi liker å si, “å finne de ukjente ukjente.”

For utviklere har det potensial til å øke produktiviteten ved å redusere tiden som brukes på å finne og fikse kodfeil, og hjelpe dem å oppnå den ønskede “flow-tilstanden.” Men det er noen ting å vurdere før en organisasjon legger til LLMs i sine prosesser.

Å låse opp flyten

En fordel med å legge til LLMs er skalerbarhet. AI kan automatisk generere fikseringer for mange sårbarheter, redusere bakloggen av sårbarheter og muliggjøre en mer strømlinjeformet og akselerert prosess. Dette er spesielt nyttig for organisasjoner som kjemper med en mengde sikkerhetsproblemer. Volumet av sårbarheter kan overvelde tradisjonelle skanningsmetoder, og føre til forsinkelser i å håndtere kritiske problemer. LLMs muliggjør at organisasjoner kan omfattende håndtere sårbarheter uten å bli hindret av ressurstegrensninger. LLMs kan gi en mer systematisk og automatisert måte å redusere feil og styrke programvaresikkerheten.

Dette fører til en annen fordel med AI: Effektivitet. Tid er av essensen når det gjelder å finne og fikse sårbarheter. Automatisering av prosessen for å fikse programvaresårbarheter hjelper med å minimere vinduet for sårbarhet for de som håper å utnytte dem. Denne effektiviteten bidrar også til betydelige tid- og ressursbesparelser. Dette er spesielt viktig for organisasjoner med omfattende kodebaserte systemer, og muliggjør at de kan optimere ressursene og allokerer innsatsen mer strategisk.

Evnen til LLMs til å trene på en stor datasett av sikker kode skaper den tredje fordelen: nøyaktigheten av disse genererte fikseringene. Riktig modell trekker på sin kunnskap for å gi løsninger som stemmer overens med etablerte sikkerhetsstandarder, og styrker den totale motstanden til programvaren. Dette minimiserer risikoen for å introdusere nye sårbarheter under fikseringsprosessen. MEN disse datasettene har også potensialet til å introdusere risiko.

Å navigere tillit og utfordringer

En av de største ulemper ved å inkorporere AI for å fikse programvaresårbarheter er tillitsverdigheten. Modeller kan bli trent på skadelig kode og lære mønster og atferd forbundet med sikkerhetstrusler. Når de brukes til å generere fikseringer, kan modellen trekke på sin læring, og uforvarende foreslå løsninger som kan introdusere sikkerhetssårbarheter i stedet for å løse dem. Det betyr at kvaliteten på treningsdataene må være representative for koden som skal fikses OG fri for skadelig kode.

LLMs kan også ha potensialet til å introdusere forvrengninger i fikseringene de genererer, og føre til løsninger som kanskje ikke omfatter hele spekteret av muligheter. Hvis datasettene som brukes til trening ikke er diverse, kan modellen utvikle smale perspektiver og preferanser. Når den blir bedt om å generere fikseringer for programvaresårbarheter, kan den favorisere visse løsninger over andre basert på mønsterene som ble satt under trening. Denne forvrengningen kan føre til en fikseringsorientert tilnærming som kanskje ignorerer uvanlige, men effektive løsninger for programvaresårbarheter.

Mens LLMs er dyktige til å gjenkjenne mønster og generere løsninger basert på læring, kan de komme til kort når de konfronteres med unike eller nye utfordringer som avviker betydelig fra treningsdataene. Noen ganger kan disse modellene sogar “hallusinere” og generere feil informasjon eller feil kode. Generativ AI og LLMs kan også være føyelige når det gjelder promter, og betyr at en liten endring i hva du skriver inn kan føre til betydelig forskjellig kodeutgang. Skadelige aktører kan også utnytte disse modellene, og bruke promptinjeksjoner eller trenings dataforgiftning for å skape ekstra sårbarheter eller få tilgang til sensitive informasjon. Disse problemene krever ofte en dyp kontekstuell forståelse, intrikate kritiske tenkeferdigheter og en bevissthet om den bredere systemarkitekturen. Dette understreker viktigheten av menneskelig ekspertise i å guidere og validere utgangene, og hvorfor organisasjoner bør se på LLMs som et verktøy for å supplere menneskelige evner i stedet for å erstatte dem fullstendig.

Det menneskelige elementet er essensielt

Menneskelig tilsyn er kritisk gjennom hele programvareutviklingslivssyklusen, spesielt når man utnytter avanserte AI-modeller. Mens Generativ AI og LLMs kan håndtere kjedelige oppgaver, må utviklere beholde en klar forståelse av sine mål. Utviklere må kunne analysere kompleksiteten av en kompleks sårbarhet, vurdere de bredere systemimplikasjonene og anvende domenespesifikke kunnskaper for å utvikle effektive og tilpassede løsninger. Denne spesialiserte ekspertisen tillater utviklere å tilpasse løsninger som stemmer overens med bransjestandarder, krav til overholdelse og spesifikke brukerbehov, faktorer som kanskje ikke fullstendig blir fanget av AI-modeller alene. Utviklere må også utføre nøye validering og verifisering av koden som genereres av AI for å sikre at den genererte koden møter de høyeste standardene for sikkerhet og pålitelighet.

Kombinasjonen av LLM-teknologi og sikkerhetstesting presenterer en løftende avenue for å forbedre kode sikkerhet. Men en balansert og forsiktig tilnærming er essensiell, og både potensielle fordeler og risiko må erkjennes. Ved å kombinere styrkene til denne teknologien og menneskelig ekspertise, kan utviklere proaktivt identifisere og mitigere sårbarheter, og forbedre programvaresikkerheten og maksimere produktiviteten til ingeniørteamene, og la dem finne sin “flow-tilstand” bedre.

Bruce Snell, sikkerhetsstrateg, Qwiet AI, har over 25 år i informasjonssikkerhetsbransjen. Hans bakgrunn omfatter administrasjon, distribusjon og konsulenttjenester på alle aspekter av tradisjonell IT-sikkerhet. De siste 10 årene har Bruce utvidet sin virksomhet til OT/IoT-sikkerhet (med GICSP-sertifisering), og arbeidet med prosjekter som inkluderer bilpen-testing, olje- og gassrørledninger, data fra autonome kjøretøy, medisinsk IoT, smarte byer og andre. Bruce har også vært en jevnlig foredragsholder på sikkerhets- og IoT-konferanser, samt gjesteforeleser ved Wharton og Harvard Business School, og co-vert for den prisvinnende podkasten “Hackable?”.