Connect with us

Thought leaders

Zullen LLM en Generative AI een 20 jaar oude probleem in applicatiebeveiliging oplossen?

mm

In het voortdurend evoluerende landschap van cybersecurity is het een constante uitdaging om een stap vooruit te blijven op kwaadwillige actoren. Gedurende de afgelopen twee decennia is het probleem van applicatiebeveiliging blijven bestaan, waarbij traditionele methoden vaak tekortschieten in het detecteren en mitigeren van opkomende bedreigingen. Echter, een veelbelovende nieuwe technologie, Generative AI (GenAI), staat op het punt om het veld te revolutioneren. In dit artikel zullen we onderzoeken hoe Generative AI relevant is voor beveiliging, waarom het langdurige uitdagingen aanpakt die eerdere benaderingen niet konden oplossen, de potentiële verstoringen die het kan brengen in het beveiligingsecosysteem en hoe het zich onderscheidt van oudere Machine Learning (ML)-modellen.

Waarom het probleem nieuwe technologie vereist

Het probleem van applicatiebeveiliging is multifacetted en complex. Traditionele beveiligingsmaatregelen zijn voornamelijk gebaseerd op patroonherkenning, signature-based detectie en regelgebaseerde benaderingen. Hoewel effectief in eenvoudige gevallen, worstelen deze methoden om de creatieve manieren waarop ontwikkelaars code schrijven en systemen configureren aan te pakken. Moderne tegenstanders evolueren constant hun aanvalstechnieken, vergroten het aanvalsoppervlak en maken patroonherkenning onvoldoende om te beschermen tegen opkomende risico’s. Dit vereist een paradigma-shift in beveiligingsbenaderingen, en Generative AI houdt een mogelijke sleutel vast om deze uitdagingen aan te pakken.

De magie van LLM in beveiliging

Generative AI is een verbetering ten opzichte van oudere modellen die worden gebruikt in machine learning-algoritmen die goed waren in het classificeren of clusteren van gegevens op basis van getrainde leer van synthetische samples. De moderne LLM’s zijn getraind op miljoenen voorbeelden uit grote code-repositories, (bijv. GitHub) die gedeeltelijk zijn getagd voor beveiligingsproblemen. Door te leren van grote hoeveelheden gegevens, kunnen moderne LLM-modellen de onderliggende patronen, structuren en relaties binnen applicatiecode en -omgeving begrijpen, waardoor ze potentieel kwetsbaarheden kunnen identificeren en aanvalsvector kunnen voorspellen gegeven de juiste invoer en priming.

Een andere grote vooruitgang is de mogelijkheid om realistische voorbeeldoplossingen te genereren die ontwikkelaars kunnen helpen de root cause te begrijpen en problemen sneller op te lossen, vooral in complexe organisaties waar beveiligingsprofessionals organisatorisch geïsoleerd en overbelast zijn.

Aankomende verstoringen mogelijk gemaakt door GenAI

Generative AI heeft het potentieel om het applicatiebeveiligingsecosysteem op verschillende manieren te verstoren:

Geautomatiseerde kwetsbaarheidsdetectie: Traditionele kwetsbaarheidsscans houden vaak manualeregeldefinitie of beperkte patroonherkenning in. Generative AI kan het proces automatiseren door te leren van uitgebreide code-repositories en synthetische samples te genereren om kwetsbaarheden te identificeren, waardoor de tijd en inspanning voor handmatige analyse worden verminderd.

Simulatie van aanval: Beveiligingstesten omvatten typisch het simuleren van aanvallen om zwakke punten in een applicatie te identificeren. Generative AI kan realistische aanvalsscenario’s genereren, inclusief geavanceerde, meerdere stappen aanvallen, waardoor organisaties hun verdediging tegen echte bedreigingen kunnen versterken. Een goed voorbeeld is “BurpGPT”, een combinatie van GPT en Burp, die helpt om dynamische beveiligingsproblemen te detecteren.

Intelligente patchgeneratie: Het genereren van effectieve patches voor kwetsbaarheden is een complexe taak. Generative AI kan bestaande codebases analyseren en patches genereren die specifieke kwetsbaarheden aanpakken, waardoor tijd wordt bespaard en menselijke fouten in het patchontwikkelingsproces worden geminimaliseerd.

Terwijl dit soort fixes traditioneel door de industrie werden afgewezen, kan de combinatie van geautomatiseerde codefixes en de mogelijkheid om tests te genereren door GenAI een goede manier zijn voor de industrie om grenzen te verleggen naar nieuwe niveaus.

Versterkte bedreigingsinformatie: Generative AI kan grote hoeveelheden beveiligingsgerelateerde gegevens analyseren, inclusief kwetsbaarheidsrapporten, aanvalspatronen en malware-samples. GenAI kan de bedreigingsinformatiecapaciteiten aanzienlijk versterken door inzichten te genereren en opkomende trends te identificeren van een initiële indicatie tot een echte actieplaybook, waardoor proactieve verdedigingsstrategieën mogelijk worden.

De toekomst van LLM en applicatiebeveiliging

LLM’s hebben nog steeds lacunes in het bereiken van perfecte applicatiebeveiliging vanwege hun beperkte contextuele begrip, onvolledige code-coverage, gebrek aan real-time beoordeling en het ontbreken van domeinspecifieke kennis. Om deze lacunes in de komende jaren aan te pakken, zal een waarschijnlijke oplossing moeten combineren van LLM-benaderingen met toegewijde beveiligingstools, externe verrijkingssources en scanners. Voortdurende vooruitgang in AI en beveiliging zal helpen om deze lacunes te overbruggen.

In het algemeen, als je een grotere dataset hebt, kun je een meer accurate LLM creëren. Dit is hetzelfde voor code, dus wanneer we meer code in dezelfde taal hebben, zullen we in staat zijn om deze te gebruiken om betere LLM’s te creëren, die op hun beurt betere codegeneratie en beveiliging zullen stimuleren.

We verwachten dat in de komende jaren we vooruitgang zullen zien in LLM-technologie, inclusief de mogelijkheid om grotere tokensizes te gebruiken, wat een groot potentieel heeft om AI-gebaseerde cybersecurity op significante wijze te verbeteren.

Neatsun Ziv is de CEO en mede-oprichter van OX Security, de eerste end-to-end software supply chain security oplossing voor DevSecOps. Voordat hij OX oprichtte, was hij de VP Cyber Security bij Check Point, waar hij alle cyberinitiatieven leidde. Zijn team was een van de eerste die reageerde op SolarWinds, NotPetya en andere grote aanvallen, en werkte nauw samen met Interpol, Local CERT en andere handhavingsinstanties.