Thought leaders
Het Echte Gevaar van Taalmodellen: AI-Gestuurde Oplichting
Stel je voor: je bent op het werk, geconcentreerd op een strakke deadline, als je een telefoontje krijgt van wat lijkt op het telefoonnummer van je moeder. De stem aan de andere kant is onmiskenbaar de hare, kalm en liefdevol, maar met een ongebruikelijke hint van urgentie. Ze vertelt je dat ze in ernstige moeilijkheden is gekomen tijdens een vakantie in Parijs en onmiddellijk financiële hulp nodig heeft om de zaken te regelen. Je weet dat ze in Parijs is, en de details die ze verstrekt, tot de naam van haar hotel, maken het telefoontje nog overtuigender. Zonder een tweede gedachte, stort je het geld over, om later te ontdekken dat je moeder nooit dat telefoontje heeft gepleegd; het was een geavanceerd AI-systeem dat perfect haar stem nadeed en een gedetailleerd scenario fabriceerde. Rillingen lopen over je ruggengraat als je beseft wat er net is gebeurd.
Dit scenario, ooit pure sciencefiction, is nu een opkomende realiteit. De dageraad van AI-technologieën zoals grote taalmodellen (LLM’s) heeft ongelooflijke vooruitgang gebracht. Echter, een aanzienlijk gevaar dreigt: AI-gestuurde oplichting. Het potentieel voor geavanceerde oplichting die wordt aangedreven door kunstmatige intelligentie is een geheel nieuw gevaar aan de horizon van technologische vooruitgang. Terwijl telefoonscams al een zorg zijn sinds de uitvinding van de telefoon, heeft de brede integratie van grote taalmodellen (LLM’s) in elk facet van digitale communicatie de inzet dramatisch verhoogd. Terwijl we het potentieel van AI omarmen, is het cruciaal dat we ook onze verdediging tegen deze steeds geavanceerdere bedreigingen versterken.
Huidige Landschap van Telefoonscams
Criminelen hebben al jarenlang geprobeerd onschuldige individuen te misleiden om geld over te maken of gevoelige informatie te onthullen, maar ondanks de prevalentie van telefoonscams, zijn veel van deze scams relatief ongeavanceerd, waarbij ze afhankelijk zijn van menselijke script-lezende operators. Echter, zelfs met deze beperking, blijven telefoonscams een lucratief crimineel bedrijf.
Volgens de US Federal Trade Commission, verloren Amerikanen in 2022 alleen al meer dan $8,8 miljard aan fraude, waarvan een aanzienlijk deel werd toegeschreven aan telefoonscams, wat betekent dat zelfs in hun huidige, minder geavanceerde vorm, veel van deze tactieken nog steeds werken op kwetsbare individuen. Wat gebeurt er als ze evolueren?
De AI-Gestuurde Toekomst van Scams
Het landschap van telefoonscams staat op het punt om dramatisch te veranderen met de komst van verschillende sleuteltechnologieën:
Grote Taalmodellen (LLM’s)
Deze AI-systemen kunnen mensachtige tekst genereren en deelnemen aan natuurlijke conversaties. Wanneer toegepast op oplichting, kunnen LLM’s zeer overtuigende en adaptieve scripts creëren, waardoor het veel moeilijker wordt voor potentiële slachtoffers om de scam te identificeren.
Retrieval-Augmented Generation (RAG)
Deze technologie stelt LLM-systemen in staat om toegang te krijgen tot en gebruik te maken van enorme hoeveelheden informatie in real-time. Scammers kunnen een profiel van een persoon opbouwen op basis van hun openbaar beschikbare informatie, zoals hun sociale accounts. Ze kunnen ook sociale engineeringsmethoden gebruiken op hun vrienden en familieleden om diepere informatie te verzamelen. Dit geeft hen toegang tot informatie zoals de identiteit van het doelwit, werkgegevens of zelfs recente activiteiten. Ze kunnen deze informatie dan gebruiken om LLM’s de context te geven die nodig is, waardoor hun benaderingen zeer persoonlijk en legitiem lijken.
Synthetische Audio-Generatie
Platforms zoals Resemble AI en Lyrebird zijn leidend in het creëren van zeer realistische AI-gegenereerde stemmen. Deze technologieën zijn in staat om persoonlijke, mensachtige audio te produceren, die kan worden gebruikt in verschillende toepassingen, variërend van virtuele assistenten tot geautomatiseerde klantenservice en contentcreatie. Bedrijven zoals ElevenLabs duwen de grenzen verder door gebruikers in staat te stellen synthetische stemmen te creëren die hun eigen stem nauwkeurig kunnen repliceren, waardoor een nieuw niveau van personalisatie en betrokkenheid mogelijk wordt in digitale interacties.
Synthetische Video-Generatie
Bedrijven zoals Synthesia demonstreren al het potentieel voor het creëren van realistische video-inhoud met AI-gegenereerde avatars. In de komende jaren kan deze technologie scammers in staat stellen om vrienden of familieleden te imiteren of volledig fictieve personages te creëren voor video-gesprekken, waardoor een eerder onmogelijk niveau van fysieke realiteit aan de scam wordt toegevoegd.
AI-Lip-Syncing
Startups zoals Sync Labs ontwikkelen geavanceerde lip-syncing-technologie die gegenereerde audio kan koppelen aan video-beelden. Dit kan worden gebruikt om zeer overtuigende deep-fake-video’s te creëren van historische figuren, politici, beroemdheden en praktisch iedereen anders, waardoor de grens tussen realiteit en bedrog nog verder vervaagt.
De combinatie van deze technologieën schildert een tamelijk verontrustend beeld. Stel je voor een scam-gesprek waarin de AI de conversatie in real-time kan aanpassen, gewapend met persoonlijke informatie over het doelwit, en zelfs kan overgaan op een video-gesprek met een ogenschijnlijk echte persoon wiens lippen perfect synchroon bewegen met de gegenereerde stem. Het potentieel voor bedrog is werkelijk enorm.
De Behoefte aan Verhoogde Beveiligingsmaatregelen
Terwijl deze AI-gestuurde scams steeds geavanceerder worden, zullen methoden voor het verifiëren van identiteit en authenticiteit moeten wedijveren met de AI-vooruitgang. Er zal een combinatie van regulatoire en technologische vooruitgang nodig zijn om de online wereld veilig te houden.
Regulatoire Verbeteringen
Strikkere Gegevensbeschermingswetten: Het implementeren van strikkere gegevensbeschermingswetten zou de hoeveelheid persoonlijke informatie die voor scammers beschikbaar is, beperken. Deze wetten zouden striktere vereisten voor gegevensverzameling, verbeterde gebruikersconsent-protocollen en zwaardere straffen voor gegevenslekken kunnen omvatten.
Private Cloud voor de Meest Krachtige AI-Modellen: Regulaties zouden kunnen voorschrijven dat de meest krachtige AI-modellen worden gehost op private, beveiligde cloud-infrastructuur in plaats van openbaar beschikbaar te worden gemaakt. Dit zou de toegang tot de meest geavanceerde technologieën beperken, waardoor het voor kwaadwillige actoren moeilijker wordt om ze voor scams te gebruiken. (bijv.: https://security.apple.com/blog/private-cloud-compute/)
Internationale Samenwerking op AI-Regulaties: Gezien de mondiale aard van AI-technologie, zou internationale samenwerking op regulatoire standaarden nuttig kunnen zijn. Het oprichten van een mondiale instantie die verantwoordelijk is voor het creëren en afdwingen van internationale AI-regulaties, zou helpen bij het aanpakken van grensoverschrijdende AI-gerelateerde misdrijven.
Publieksbewustmakingscampagnes: Overheden en regulatoire instanties zouden moeten investeren in publieksbewustmakingscampagnes om burgers te informeren over de potentiële risico’s van AI-scams en hoe ze zichzelf kunnen beschermen. Bewustzijn is een cruciale eerste stap in het empoweren van individuen en organisaties om noodzakelijke beveiligingsmaatregelen te implementeren.
Huidige AI-regulaties zijn onvoldoende om scams te voorkomen, en de uitdaging van toekomstige regulatie wordt verergerd door de open-source-aard van veel krachtige technologieën. Deze openheid stelt iedereen in staat om toegang te krijgen tot en deze technologieën voor hun eigen doeleinden te modificeren. Als gevolg hiervan zijn, naast sterkere regulaties, vooruitgang in beveiligingstechnologieën nodig.
Synthetische Gegevensdetectie
Synthetische audiodetectie: Terwijl scammers AI gebruiken, moeten onze verdedigingen dit ook doen. Bedrijven zoals Pindrop ontwikkelen AI-gepowered systemen die synthetische audio in real-time tijdens telefoongesprekken kunnen detecteren. Hun technologie analyseert meer dan 1.300 kenmerken van een gesprek om te bepalen of het afkomstig is van een echte persoon of een geavanceerd AI-systeem.
Synthetische videodetectie: Synthetische Video Detectie: Net zoals audio kan worden gemanipuleerd door AI, kan video dit ook, waardoor significante bedreigingen ontstaan in de vorm van deepfakes en andere synthetische video-inhoud. Bedrijven zoals Deepware zijn leidend in het ontwikkelen van technologieën om synthetische video te detecteren. Deepware’s platform gebruikt geavanceerde machine learning-algoritmes om subtiele inconsistenties in video-gegevens te analyseren, zoals onnatuurlijke bewegingen, onregelmatige verlichting en pixel-anomalieën die vaak aanwezig zijn in AI-gegenereerde inhoud. Door deze afwijkingen te identificeren, kan Deepware’s technologie bepalen of een video echt is of gemanipuleerd, waardoor individuen en organisaties worden beschermd tegen bedrog door geavanceerde video-gebaseerde scams en desinformatiecampagnes.
Identificatie-Authenticatie-Vooruitgang
Er worden verschillende manieren ontwikkeld om de identiteit van een gebruiker te bevestigen en een of meer hiervan zullen in de komende jaren mainstream worden om het internet veiliger te maken.
Tweestapsauthenticatie voor Remote Conversaties: Tweefactorauthenticatie (2FA) blijft een fundamenteel onderdeel van beveiligde communicatie. Onder deze methode zou elk telefoongesprek of e-mail een tekstbericht triggeren met een unieke verificatiecode, vergelijkbaar met huidige e-mailinschrijvingen. Hoewel 2FA effectief is voor basisauthenticatie, betekent de beperking ervan dat het niet in alle contexten kan worden vertrouwd, waardoor de ontwikkeling van geavanceerdere methoden noodzakelijk is om alomvattende internetveiligheid te garanderen die op de achtergrond kan werken.
Gedragsgebaseerde multifactorauthenticatie: Verdergaand dan het verifiëren van identiteit aan het begin van een gesprek, kunnen toekomstige beveiligingssystemen het gedrag doorlopend analyseren gedurende een interactie. Bedrijven zoals BioCatch gebruiken gedragsbiometrie om gebruikersprofielen te creëren op basis van hoe individuen met hun apparaten omgaan. Deze technologie kan afwijkingen in gedrag detecteren die zouden kunnen aangeven dat een scammer gestolen informatie gebruikt, zelfs als ze de initiële authenticatiecontroles hebben doorstaan.
Biometrie-gebaseerde Authenticatie: Bedrijven zoals Onfido zijn vooropgesteld in biometrische verificatietechnologie, waarbij AI-gepowerde identiteitsverificatie-instrumenten worden aangeboden die geavanceerde deepfakes en andere vormen van identiteitsfraude kunnen detecteren. Hun systeem gebruikt een combinatie van documentverificatie en biometrische analyse om te garanderen dat de persoon aan de andere kant van een gesprek of videochat echt is wie ze claimt te zijn.
Geavanceerde Kennis-gebaseerde Authenticatie: Verdergaand dan eenvoudige beveiligingsvragen, kunnen toekomstige authenticatiesystemen dynamische, AI-gegenereerde vragen incorporeren op basis van een gebruikers digitale voetafdruk en recente activiteiten. Bijvoorbeeld, Prove, een bedrijf dat zich specialiseert in telefoon-gecentreerde identiteit, ontwikkelt oplossingen die telefoonintelligentie en gedragsanalyse gebruiken om identiteiten te verifiëren. Hun technologie kan patronen in het gebruik van een apparaat door een persoon analyseren om een unieke “identiteits-handtekening” te creëren die moeilijker voor scammers is om te repliceren.
Blockchain-gebaseerde Identiteitsverificatie-Authenticatie: Blockchain-technologie biedt een gedecentraliseerde en onveranderlijke methode voor identiteitsverificatie. Bedrijven zoals Civic zijn pioniers in blockchain-gebaseerde identiteitsverificatiesystemen die gebruikers in staat stellen hun persoonlijke informatie te controleren terwijl ze tegelijkertijd beveiligde authenticatie bieden. Deze systemen creëren een verifieerbare, onveranderlijke record van een persoons identiteit, ideaal voor het beheren van high-risk transacties.
Conclusie
De convergentie van LLM’s, RAG, synthetische audio-generatie, synthetische video-generatie en lip-syncing-technologieën is een soort tweesnijdend zwaard. Terwijl deze vooruitgang enorm potentieel heeft voor positieve toepassingen, vormen ze ook significante risico’s wanneer ze door scammers worden misbruikt.
Deze voortdurende strijd tussen beveiligingsexperts en cybercriminelen benadrukt de noodzaak voor continue innovatie en waakzaamheid op het gebied van digitale beveiliging. We kunnen alleen maar de voordelen van deze krachtige instrumenten benutten en hun potentieel voor schade mitigeren door deze risico’s te erkennen en erop voor te bereiden.
Omvangrijke regulatie, educatie over deze nieuwe vormen van scams, investering in geavanceerde beveiligingsmaatregelen en, misschien wel het belangrijkst, een gezonde dosis scepsis van elk individu bij interactie met onbekende entiteiten online of via de telefoon, zal essentieel zijn bij het navigeren van dit nieuwe landschap.












