Connect with us

Zijn bedrijven klaar voor de volgende golf van AI-aangestuurde cyberaanvallen?

Cyberbeveiliging

Zijn bedrijven klaar voor de volgende golf van AI-aangestuurde cyberaanvallen?

mm

Het analyseren van huidige trends stelt experts in staat om te voorspellen hoe cybercriminelen in de toekomst artificial intelligence zullen gebruiken. Met deze informatie kunnen ze de grootste opkomende bedreigingen identificeren en bepalen of bedrijven hierop zijn voorbereid. Ze kunnen zelfs een oplossing vinden.

De staat van AI-bedreigingen in recente jaren

Hoewel AI-technologie relatief nieuw is, is het al een prominente tool voor hackers geworden. Deze trends suggereren dat AI-cyberaanvallen in opkomst zijn.

1. Modelmanipulatie

Door grote taalmodellen (LLM’s) rechtstreeks aan te vallen, kunnen dreigingsactoren het modelgedrag manipuleren, de uitvoernauwkeurigheid verlagen of persoonlijk identificeerbare trainingsgegevens blootleggen. Gegevensvergiftiging en prompt-engineering zijn veelvoorkomende aanvalstechnieken.

Sommige aanvallen worden geleid door dreigingsactoren die chaos willen veroorzaken of gevoelige informatie willen stelen. Andere worden beheerd door ontevreden artiesten die hun kunstwerk willen beschermen tegen AI-scraping. Hoe dan ook, het bedrijf en zijn eindgebruikers worden nadelig beïnvloed.

2. Impersonatie-aanvallen

In 2024 ontving een Ferrari-functionaris meerdere WhatsApp-berichten van de CEO, Benedetto Vigna. Vigna sprak over een aanstaande overname en drong er bij zijn werknemer op aan om een geheimhoudingsverklaring te ondertekenen. Hij belde zelfs om de financiering te bespreken. Er was één probleem — het was niet hij.

De deepfake was bijna perfect, met uitzondering van een zuidelijk Italiaans accent. Toch waren er kleine inconsistenties in de stem die de functionaris attent maakten op de scam. De werknemer vroeg naar de titel van een boek dat Vigna eerder had aanbevolen, een vraag die alleen de echte CEO zou kunnen beantwoorden. De scammer hing meteen op.

AI kan de stem van een persoon klonen, browsingsgedrag, schrijfstijl en gelijkenis. Naarmate deze technologie vordert, wordt het steeds moeilijker om deepfakes te identificeren. De scammers zetten de doelwit vaak in een urgente situatie om te voorkomen dat ze kleine inconsistenties in twijfel trekken.

3. AI-phishing

In het verleden kon een persoon een phishing-e-mail identificeren door naar slechte grammatica, verdachte links, algemene begroetingen en ongepaste verzoeken te zoeken. Nu kunnen hackers met natuurlijke taalverwerkingstechnologie overtuigende berichten met perfecte grammatica maken.

Onderzoekers ontdekten dat volledig geautomatiseerde AI-geactiveerde spear-phishing-e-mails een klikpercentage van 54% hebben, wat gelijk is aan phishing-e-mails geschreven door mensen. Aangezien deze scams overtuigender zijn, worden ze steeds vaker gebruikt. Studies hebben aangetoond dat meer dan 80% van de phishing-e-mails bewijs van AI-betrokkenheid vertonen.

4. Sociale manipulatie

Sociale manipulatie houdt in dat iemand wordt gemanipuleerd om actie te ondernemen of informatie te onthullen. AI stelt hackers in staat om sneller te reageren en overtuigendere berichten te maken. Elk natuurlijk taalverwerkingsmodel kan een semantische analyse uitvoeren om de emotionele toestand van de ontvanger te identificeren, waardoor ze meer geneigd zijn om toe te geven.

Naast het verbeteren van sociale manipulatietechnieken, verlaagt machine learning-technologie de traditionele toegangsbarrières, waardoor beginners complexe campagnes kunnen uitvoeren. Als iedereen een cybercrimineel kan worden, kan iedereen een doelwit worden.

De volgende golf van data-gedreven AI-aanvallen

Begin 2026 zullen AI-aanvallen naar verwachting op een laag volwassenheidsniveau blijven. Echter, ze zullen exponentieel toenemen naarmate het jaar vordert, waardoor cybercriminelen de optimalisatie-, implementatie- en schaalfasen kunnen bereiken. Ze zullen binnenkort volledig geautomatiseerde campagnes kunnen lanceren. Bevestigde voorbeelden van AI-cyberaanvallen zullen niet lang zeldzaam zijn.

Polymorfe malware is een AI-geactiveerd virus dat zijn code kan veranderen telkens wanneer het zich vermeerdert om detectie te voorkomen. Aanvallers kunnen de payload via AI-ecosystemen leveren, LLM’s op runtime oproepen om opdrachten te genereren of het virus rechtstreeks in de LLM inbedden. De Google Threat Intelligence Group ontdekte dat tegenstanders deze malware voor het eerst in 2025 hebben ingezet.

De malware-families zijn PROMPTFLUX en PROMPTSTEAL. Tijdens de uitvoering gebruiken ze LLM’s om VBScript-verhulling en ontwijktechnieken aan te vragen. Ze ontwijken signature-gebaseerde detectie door hun eigen code op aanvraag te verhullen.

Bewijs suggereert dat deze bedreigingen nog in de testfase zitten — sommige onvolledige functies zijn uitgecommentarieerd en de toepassingsprogrammeringsaanroepen zijn beperkt. Deze AI-malware-families kunnen nog in ontwikkeling zijn, maar hun bestaan vertegenwoordigt een enorme stap voorwaarts in de richting van autonome, adaptieve aanvalstechnieken.

Onderzoek van NYU Tandon toont aan dat LLM’s al autonoom ransomware-aanvallen kunnen uitvoeren, gedoopt tot Ransomware 3.0. Ze kunnen verkenning uitvoeren, payloads genereren en afpersing personaliseren zonder menselijke tussenkomst. Het vereist alleen natuurlijke taalprompts die in de binaire code zijn ingebed. Het model levert polymorfe varianten op die zich aanpassen aan de uitvoeromgeving door de kwaadaardige code dynamisch te genereren op runtime.

Zijn bedrijven voorbereid op AI-aanvallen?

Ondanks miljarden uitgegeven aan cybersecurity, blijven particuliere bedrijven worstelen om de evoluerende bedreigingslandschap bij te houden. Machine learning-technologie kan bestaande detectie- en responssoftware verouderd maken, waardoor verdediging nog complexer wordt. Het helpt niet dat veel bedrijven de basisbeveiligingsnormen niet halen.

Het 2024 DIB Cybersecurity Maturity Report onderzocht 400 IT-professionals in de Amerikaanse defensie-industriebasis (DIB). Meer dan de helft van de respondenten meldden dat ze jaren verwijderd zijn van de Cybersecurity Maturity Model Certification (CMMC) 2.0, ondanks dat de equivalentie van NIST 800-171 in DoD-contracten sinds 2016 is opgenomen. Velen beoordelen hun beveiligingspostuur als veel beter dan het eigenlijk is.

De nieuwe CMMC-vereisten traden op 10 november 2025 in werking. Vanaf dat moment zullen alle DoD-contracten een bepaalde mate van CMMC-naleving vereisen als voorwaarde voor contracttoekenning. De nieuwe regels zijn bedoeld om de DIB-cyberbeveiliging te versterken, maar zullen ze effectief zijn in het tijdperk van AI?

Is defensieve AI het antwoord?

Het bestrijden van vuur met vuur kan de enige manier zijn om de onvermijdelijke golf van AI-aanvallen te bestrijden. Met defensieve AI kunnen organisaties dynamisch op bedreigingen reageren in real-time. Echter, deze aanpak komt met zijn eigen beveiligingsfouten — het beveiligen van het model tegen manipulatie vereist continue toezicht en auditing.

Volgens Harvard Business Review laten conventionele oplossingen bedrijven kwetsbaar voor AI-cyberaanvallen. Om cyberweerbaarheid te bereiken, moeten ze machine learning-technologie gebruiken om bedreigingen te anticiperen en automatisch te reageren.

Er is geen eenvoudig antwoord op de vraag of defensieve AI de oplossing is voor dit probleem. Zouden bedrijven hun middelen moeten steken in het implementeren van ongeteste machine learning-hulpmiddelen of het uitbreiden van hun IT-teams? Het is onmogelijk te voorspellen welke investering op lange termijn rendement oplevert.

Grote ondernemingen kunnen aanzienlijke rendementen zien met geautomatiseerde cybersecurity, terwijl kleine bedrijven mogelijk worstelen om de kosten te rechtvaardigen. Conventionele automatiseringstechnologie kan de kloof mogelijk dichten tegen een veel lagere prijs, maar het kan niet reageren op dynamische bedreigingen.

Steve Durbin, CEO van de Information Security Forum, stelt dat AI-adoptie aanzienlijke voordelen heeft, maar ook grote nadelen. Zo kunnen bedrijven een toename van valse positieve waarschuwingen ervaren, waardoor de tijd van beveiligingsteams wordt verspild. Bovendien kan een te grote afhankelijkheid van AI ertoe leiden dat teams overmoedig worden, waardoor beveiligingslacunes ontstaan.

De AI-bedreigingslandschap navigeren

Het is onmogelijk om de exacte omvang van AI’s aanwezigheid in het bedreigingslandschap te bepalen, aangezien aanvallers het kunnen gebruiken om kwaadaardige code te maken of phishing-e-mails te schrijven, in plaats van het tijdens de uitvoering te gebruiken. Eenlingen en door de staat gesteunde dreigingsgroepen kunnen het op grote schaal gebruiken.

Op basis van de beschikbare informatie zullen modelmanipulatie, AI-phishing en polymorfe malware de grootste cyberbedreigingen van 2026 zijn. Cybercriminelen zullen waarschijnlijk blijven gebruikmaken van LLM’s om kwaadaardige payloads te genereren, leveren en aanpassen, waarbij ze waardevolle industrieën zoals financiën en gewone mensen als doelwit nemen.

Zac Amos is een tech-schrijver die zich richt op kunstmatige intelligentie. Hij is ook de Features Editor bij ReHack, waar u meer van zijn werk kunt lezen.