Verbind je met ons

Gedachte leiders

De toenemende impact van AI op verkiezingsfraude dit seizoen

mm

In 2022 waren kwaadaardige e-mails gericht op verkiezingswerkers in de provincie Pennsylvania schommelden rond de voorverkiezingen op 17 mei, een stijging van meer dan 546% in zes maanden. Gecombineerd met het potentieel voor snode grote taalmodellen (LLM's) bovenop deze traditionele phishing-aanvallen, is de kans groot dat de gewone Amerikaan dit verkiezingsseizoen het doelwit zal zijn van een nog realistischer oplichterij.

Overheden beginnen dit in de gaten te krijgen, vooral nu AI in ons dagelijks leven wordt geïntegreerd. Bijvoorbeeld de Amerikaanse Cybersecurity and Infrastructure Security Agency gelanceerd een programma om de verkiezingsveiligheid te vergroten – wat blijk geeft van een groeiende vraag van zowel de overheid als het publiek om zichzelf en hun gegevens te beschermen tegen potentiële slechte actoren dit verkiezingsseizoen.

En nog recenter, tijdens de Veiligheidsconferentie van München in 2024, ondertekenden twintig technologie- en AI-bedrijven een overeenkomst “Technisch akkoord ter bestrijding van misleidend gebruik van AI bij de verkiezingen van 2024,” waarin de leidende beginselen worden benadrukt om verkiezingen en het verkiezingsproces te beschermen, inclusief preventie, herkomst, detectie, responsieve bescherming, evaluatie en publiek bewustzijn. Dit bestaat uit grote technologiespelers, waaronder Microsoft, Amazon en Google, en betekent een belangrijke verschuiving in de sector, waarbij databeveiliging, zelfs afgezien van politieke voorkeuren, een onderwerp is dat zowel burgers als cyberexperts de rest van dit verkiezingsjaar zal bezighouden. Bovendien zal generatieve AI een grote invloed hebben op de manier waarop slechte actoren hun aanvallen kunnen uitvoeren, waardoor het gemakkelijker wordt om zeer realistische oplichting te plegen.

Soorten verkiezingsfraude

Hoewel het verkiezingsseizoen niet de enige keer is dat we een toename van oplichting zien, zien we als het tijd is om te stemmen, zowel bij de voorverkiezingen als bij de algemene verkiezingen, een toename van verschillende methoden en technieken. Elk van deze wordt gebruikt met het typische doel om toegang te krijgen tot de rekening van een individu of tot geldelijk gewin, en de gevolgen van het vallen voor hen kunnen grote gevolgen hebben. In feite heeft alleen al deepfake-fraude de VS meer gekost $ 3.4 miljard in verliezen.

Enkele voorbeelden van oplichting die we rond het verkiezingsseizoen tegenkomen zijn:

  • Phishing: Phishing omvat het gebruik van valse links, e-mails en websites om toegang te krijgen tot gevoelige consumenteninformatie – meestal door malware op het doelsysteem te installeren. Deze gegevens worden vervolgens gebruikt om andere identiteiten te stelen, toegang te krijgen tot waardevolle bezittingen en de inbox te overladen met e-mailspam. In een verkiezingsseizoen kunnen phishing-e-mails worden gecamoufleerd als donatie-e-mails die een burger ertoe aanzetten op de link te klikken, in de veronderstelling dat hij een donatie doet aan een kandidaat, maar in feite inspelen op het plan van een slechte actor.
  • Robocalls, imitaties en door AI gegenereerde stem- of chatbots: Zoals te zien in New Hampshire Wanneer een robocall president Biden nabootste en er bij burgers op aandrong niet te stemmen, zal het verkiezingsseizoen een toename van het aantal nabootsingen van opiniepeilers of politieke kandidaten met zich meebrengen om op valse wijze vertrouwen te winnen en gevoelige informatie te verkrijgen.
  • Deepfakes: Met de opkomst van AI zijn deepfakes tegenwoordig ongelooflijk realistisch geworden en kunnen ze worden gebruikt om zich voor te doen als een baas of zelfs je favoriete beroemdheid. Deepfakes zijn video's of afbeeldingen die AI gebruiken om gezichten te vervangen of gezichtsuitdrukkingen of spraak te manipuleren. Veel van de deepfakes die we dagelijks tegenkomen, zullen de vorm hebben van een video, met een nagemaakte clip waarin de persoon iets zegt of doet wat hij misschien nog nooit heeft gedaan. Dit zal naar verwachting vooral dit verkiezingsseizoen het geval zijn, waarbij het risico bestaat dat deepfakes worden gecreëerd om zich voor te doen als kandidaten. Zelfs buiten de VS, zoals in Groot-Brittannië, bestaat de vrees dat deepfakes kunnen worden gebruikt om verkiezingen te manipuleren.

De impact van AI op verkiezingen

Naast deze oplichting worden AI-algoritmen gebruikt om overtuigender en aantrekkelijker nepberichten, e-mails en posts op sociale media te genereren om gebruikers te misleiden om gevoelige informatie op te geven.

Microsoft en OpenAI publiceerden een dreigingsbriefing: “Navigeren door cyberdreigingen en de verdediging versterken in het tijdperk van AI”, waarin werd opgemerkt dat vijf dreigingsactoren uit Rusland, Noord-Korea, Iran en China allemaal GenAI al hebben gebruikt voor nieuwe en innovatieve manieren om hun operaties tegen zachte doelen te verbeteren.

Oplichting zoals chatbots, stemklonen en meer worden nog een stap verder gebracht met AI als hulpmiddel om desinformatie te verspreiden, malware te ontwikkelen en zich voor te doen als individuen. Met stemkloneringstools kunnen bijvoorbeeld bijna perfecte replica's worden gemaakt van de stem of het gezicht van een verkiezingsfiguur. AI kan ook worden gebruikt om callcenters te overspoelen met valse kiezersoproepen, waardoor ze worden overspoeld met verkeerde informatie.

Sociale media zullen de grootste alertheid hebben, aangezien dit een belangrijk voertuig voor campagnes dit verkiezingsseizoen is. Kiezers zullen op hun pagina's laten weten of ze hebben gestemd en misschien zelfs hun steun voor hun favoriete kandidaat tonen. Dit jaar vormt er echter een nieuwe dreiging, aangezien we een nieuwe toename zien van AI-phishing (waaronder smishing en vishing).

Stel je voor dat iemand op zijn of haar social media-account een steunbetuiging voor een specifieke kandidaat plaatst. Een paar minuten later ontvangt hij of zij een e-mail die afkomstig lijkt te zijn van een campagnemanager, waarin hij of zij wordt bedankt voor de steun. Dat potentiële slachtoffer zou op die e-mail kunnen reageren door op een link te klikken, wat leidt tot het verzamelen van inloggegevens, financieel verlies of de installatie van malware. Dankzij AI's vermogen om gerichte phishingcampagnes in bijna realtime te monitoren, te creëren en uit te voeren, stellen ogenschijnlijk onschuldige social media-berichten gebruikers nu bloot aan een nieuw niveau van realistische phishingaanvallen.

Waakzaam blijven dit verkiezingsseizoen

Aanvallen zoals phishing zullen een gebruikelijke manier blijven voor slechte actoren om realistische oplichting te creëren die zelfs aan de meest deskundige mensen kan ontglippen, en in het tijdperk van generatieve AI is de potentiële impact hiervan alleen maar versneld om slechte actoren sneller toegang te geven tot gevoelige informatie. informatie.

Terwijl bedrijven technologie inzetten om hun gegevens en werknemers te beschermen, moeten consumenten zich ook bewust zijn van technieken om oplichting te herkennen en te voorkomen. Sommige hiervan omvatten:

  • Let op willekeurige of verkeerd gespelde hyperlinks of onderwerpregels van e-mails
  • Niet klikken op een link van een onbekende afzender
  • Waar mogelijk gebruik maken van tweefactorauthenticatie of biometrische authenticatie
  • Sociale media-accounts privé maken
  • Kwaadaardige activiteiten melden
  • Het opleiden van andere collega's of familieleden
  • Zoek naar een .gov-websitedomein om de authenticiteit van een verkiezingskandidaat te verifiëren
  • Als u IT op uw werkplek heeft, kunt u ook vragen stellen over:
    • Zero Trust-netwerken
    • Phishing-bestendige tweefactorauthenticatie
    • E-mailbeveiligingstools (DMARC, DKIM, SPF)
    • Methoden om inhoud digitaal te ondertekenen (of een andere manier om uw communicatie cryptografisch te verifiëren)

Hoewel verkiezingsseizoenen een tijd zijn om zeer alert te zijn, kunnen aanvallen op elk moment plaatsvinden. Het is dus belangrijk om ervoor te zorgen dat uw cyberbeveiligingsbasis het hele jaar door sterk en betrouwbaar is.

Mark Ruchie, CISSP is de VP Infosec-adviseur bij Toevertrouwen. Mark trad in januari 2015 in dienst bij Entrust en heeft ruim 30 jaar in de veiligheidssector gewerkt met leiderschapsposities op het gebied van veiligheid bij UnitedHealth Group, de Amerikaanse luchtmacht en KPMG. Hij heeft een Masters in National Security Studies behaald aan de Georgetown University.