Connect with us

Hoe AI-aangedreven deepfakes de integriteit van verkiezingen bedreigen — En wat eraan te doen

Thought leaders

Hoe AI-aangedreven deepfakes de integriteit van verkiezingen bedreigen — En wat eraan te doen

mm

Campagne-advertenties kunnen al een beetje rommelig en controversieel zijn.

Stel je nu voor dat je wordt gericht met een campagne-advertentie waarin een kandidaat krachtige standpunten inneemt die je stem beïnvloeden — en de advertentie is niet eens echt. Het is een deepfake.

Dit is geen toekomstig hypothetisch scenario; deepfakes zijn een echt, wijdverspreid probleem. We hebben al AI-gegenereerde “goodkeuringen” in het nieuws gezien, en wat we hebben gehoord, krast de oppervlakte van het probleem slechts.

Naarmate we de Amerikaanse presidentsverkiezingen van 2024 naderen, betreden we onbekend terrein op het gebied van cybersecurity en informatie-integriteit. Ik heb gewerkt op het snijvlak van cybersecurity en AI sinds beide concepten in hun kinderschoenen stonden, en ik heb nog nooit iets gezien zoals wat er nu gebeurt.

De snelle evolutie van kunstmatige intelligentie — specifiek generatieve AI en, natuurlijk, de resulterende gemakkelijkheid van het creëren van realistische deepfakes — heeft het landschap van verkiezingsbedreigingen getransformeerd. Deze nieuwe realiteit vraagt om een verandering in de basisveronderstellingen met betrekking tot verkiezingsbeveiliging en voter-educatie.

Gebeurde AI

Je hoeft mijn persoonlijke ervaring niet te nemen als bewijs; er is genoeg bewijs dat de cybersecurity-uitdagingen waar we vandaag mee te maken hebben, zich op een ongekend tempo ontwikkelen. In de loop van slechts een paar jaar hebben we een dramatische transformatie gezien in de capaciteiten en methoden van potentiële bedreigingsactoren. Deze evolutie spiegelt de versnelde ontwikkeling van AI-technologieën, maar met een verontrustende twist.

Voorbeeld:

  • Snel wapenen van kwetsbaarheden. Vandaag kunnen aanvallers snel nieuwe kwetsbaarheden uitbuiten, vaak sneller dan patches kunnen worden ontwikkeld en geïmplementeerd. AI-hulpmiddelen versnellen dit proces nog verder, waardoor het tijdvenster tussen het ontdekken van kwetsbaarheden en het uitbuiten ervan kleiner wordt.
  • Uitgebreid aanvalsoppervlak. De wijdverbreide adoptie van cloud-technologieën heeft het potentiële aanvalsoppervlak aanzienlijk verbreed. Gedistribueerde infrastructuur en het gedeelde verantwoordelijkheidsmodel tussen cloud-aanbieders en gebruikers creëren nieuwe vectoren voor exploitatie als ze niet goed worden beheerd.
  • Verouderde traditionele beveiligingsmaatregelen. Legacy-beveiligingshulpmiddelen zoals firewalls en antivirussoftware worstelen om gelijke tred te houden met deze evoluerende bedreigingen, vooral als het gaat om het detecteren en mitigeren van AI-gegenereerde inhoud.

Kijk Wie Er Prat

In dit nieuwe dreigingslandschap vormen deepfakes een bijzonder sluwe uitdaging voor de integriteit van verkiezingen. Recent onderzoek van Ivanti geeft cijfers bij de dreiging: meer dan de helft van de kantoorwerkers (54%) is zich niet bewust dat geavanceerde AI iemands stem kan imiteren. Dit gebrek aan bewustzijn onder potentiële kiezers is diep verontrustend nu we een kritische verkiezingscyclus naderen.

Er staat veel op het spel.

De geavanceerdheid van de huidige deepfake-technologie stelt bedreigingsactoren, zowel binnenlands als buitenlands, in staat om overtuigende nep-audio-, video- en tekstinhoud te creëren met minimale inspanning. Een eenvoudige tekstprompt kan nu een deepfake genereren die steeds moeilijker te onderscheiden is van echte inhoud. Deze capaciteit heeft ernstige implicaties voor de verspreiding van desinformatie en de manipulatie van de publieke opinie.

Uitdagingen in Toeschrijving en Mitigatie

Toeschrijving is een van de grootste uitdagingen die we tegenkomen bij AI-gegenereerde verkiezingsinterferentie. Terwijl we historisch gezien verkiezingsinterferentie associeerden met nationale actoren, betekent de democratisering van AI-hulpmiddelen dat binnenlandse groepen, gedreven door verschillende ideologische motivaties, deze technologieën kunnen gebruiken om verkiezingen te beïnvloeden.

Deze diffusie van potentiële bedreigingsactoren compliceert onze mogelijkheid om bronnen van desinformatie te identificeren en te mitigeren. Het benadrukt ook de noodzaak van een multifacetteerde aanpak van verkiezingsbeveiliging die verder gaat dan traditionele cybersecurity-maatregelen.

Een Gecoördineerde Inspanning om Verkiezingsintegriteit te Handhaven

Het aanpakken van de uitdaging van AI-aangedreven deepfakes in verkiezingen zal een gecoördineerde inspanning van meerdere sectoren vereisen. Hier zijn sleutelgebieden waarop we onze inspanningen moeten richten:

  • Shift-left-beveiliging voor AI-systemen. We moeten de principes van “shift-left”-beveiliging toepassen op de ontwikkeling van AI-systemen zelf. Dit betekent dat we beveiligingsoverwegingen vanaf de vroegste stadia van AI-modelontwikkeling incorporeren, inclusief overwegingen voor potentieel misbruik in verkiezingsinterferentie.
  • Afdwingen van beveiligde configuraties. AI-systemen en -platforms die potentieel gebruikt kunnen worden om deepfakes te genereren, moeten standaard robuuste, beveiligde configuraties hebben. Dit omvat sterke authenticatiemaatregelen en beperkingen op het type inhoud dat kan worden gegenereerd.
  • Beveiligen van de AI-supply chain. Net zoals we ons focussen op het beveiligen van de software-supply chain, moeten we deze waakzaamheid uitbreiden naar de AI-supply chain. Dit omvat het onderzoeken van de datasets die worden gebruikt om AI-modellen te trainen en de algoritmen die worden gebruikt in generatieve AI-systemen.
  • Verbeterde detectiecapaciteiten. We moeten investeren in en ontwikkelen geavanceerde detectiehulpmiddelen die AI-gegenereerde inhoud kunnen identificeren, met name in de context van verkiezingsgerelateerde informatie. Dit zal waarschijnlijk het gebruik van AI zelf om AI-gegenereerde desinformatie te bestrijden, inhouden.
  • Voter-educatie en -bewustzijn. Een cruciaal onderdeel van onze verdediging tegen deepfakes is een geïnformeerde kiezers. We hebben uitgebreide educatieprogramma’s nodig om kiezers te helpen begrijpen het bestaan en de potentiële impact van AI-gegenereerde inhoud, en om hen te voorzien van hulpmiddelen om de informatie die ze tegenkomen, kritisch te evalueren.
  • Cross-sectorale samenwerking. De technologie-sector, met name IT- en cybersecurity-bedrijven, moet nauw samenwerken met overheidsinstanties, verkiezingsfunctionarissen en media-organisaties om een verenigd front te creëren tegen AI-gedreven verkiezingsinterferentie.

Wat Nu, en Wat Volgt

Terwijl we deze strategieën implementeren, is het cruciaal dat we continu hun effectiviteit meten. Dit zal nieuwe metrics en monitoringtools vereisen die specifiek zijn ontworpen om de impact van AI-gegenereerde inhoud op verkiezingsdiscours en kiezersgedrag te volgen.

We moeten ook bereid zijn om onze strategieën snel aan te passen. Het veld van AI evolueert met een razend tempo, en onze defensieve maatregelen moeten even snel evolueren. Dit kan het gebruik van AI zelf om meer robuuste en adaptieve beveiligingsmaatregelen te creëren, inhouden.

De uitdaging van AI-aangedreven deepfakes in verkiezingen vertegenwoordigt een nieuw hoofdstuk in cybersecurity en informatie-integriteit. Om dit aan te pakken, moeten we voorbij traditionele beveiligingsparadigma’s denken en samenwerking over sectoren en disciplines stimuleren. Het doel: het benutten van de kracht van AI ten behoeve van democratische processen, terwijl we zijn potentieel voor schade mitigeren. Dit is niet alleen een technische uitdaging, maar een maatschappelijke die voortdurende waakzaamheid, aanpassing en samenwerking vereist.

De integriteit van onze verkiezingen — en bij uitbreiding, de gezondheid van onze democratie — hangt af van onze capaciteit om deze uitdaging frontaal aan te pakken. Dit is een verantwoordelijkheid die op ons allemaal rust: technici, beleidsmakers en burgers.

Dr. Srinivas Mukkamala is Chief Product Officer voor Ivanti. Hij was de oprichter en CEO van RiskSense tot Ivanti het bedrijf in augustus 2021 overnam.

Hij trad toe tot Ivanti als leider voor Ivanti-beveiligingsoplossingen en heeft een belangrijke rol gespeeld bij het integreren van het RiskSense-portfolio en -team in de Ivanti-strategie. Hij is een erkende autoriteit in de gemeenschappen van kunstmatige intelligentie (AI) en neurale netwerken en maakte deel uit van een denktank die samenwerkte met het Amerikaanse ministerie van Defensie om deze concepten toe te passen op cybersecurity-problemen.

Dr. Mukkamala is verantwoordelijk voor productbeheer voor alle Ivanti-oplossingen en zal blijven innoveren in geïntegreerde oplossingen over alle bedrijfspijlers: ITSM, Security en UEM.​

Dr. Mukkamala was ook een hoofdonderzoeker voor CACTUS (Computational Analysis of Cyber Terrorism against de VS) en heeft een octrooi op Intelligent Agents voor Distributed Intrusion Detection System en Method of Practicing.​
Dr. Mukkamala heeft een PhD en een Master of Science diploma in Computer Science van de New Mexico Institute of Mining and Technology.