Vordenker
Wie AI-gestützte Deepfakes die Integrität von Wahlen bedrohen — Und was dagegen getan werden kann
Wahlwerbespots können bereits jetzt ziemlich verwirrend und umstritten sein.
Stellen Sie sich vor, Sie werden mit einem Wahlwerbespot gezielt angesprochen, in dem ein Kandidat starke Positionen vertritt, die Ihre Stimme beeinflussen — und der Spot ist nicht einmal echt. Es ist ein Deepfake.
Dies ist kein hypothetisches Szenario aus der Zukunft; Deepfakes sind ein reales, allgegenwärtiges Problem. Wir haben bereits AI-generierte “Empfehlungen” in den Schlagzeilen gesehen, und was wir gehört haben, kratzt nur an der Oberfläche.
Wenn wir uns der US-Präsidentschaftswahl 2024 nähern, betreten wir unbekanntes Terrain in Sachen Cybersicherheit und Informationsintegrität. Ich habe an der Schnittstelle von Cybersicherheit und KI gearbeitet, seit beide Konzepte noch in den Kinderschuhen steckten, und ich habe noch nie etwas gesehen, das dem, was gerade passiert, ähnelt.
Die rasante Evolution künstlicher Intelligenz — insbesondere generative KI und natürlich die daraus resultierende Leichtigkeit, realistische Deepfakes zu erstellen — hat die Landschaft der Wahlbedrohungen verändert. Diese neue Realität erfordert eine Änderung der grundlegenden Annahmen bezüglich der Wahlssicherheit und der Bildung der Wähler.
Weaponisierte KI
Sie müssen meine persönliche Erfahrung nicht als Beweis nehmen; es gibt genügend Beweise dafür, dass die Cybersicherheitsherausforderungen, denen wir heute gegenüberstehen, sich mit unvergleichlicher Geschwindigkeit entwickeln. Im Laufe von nur wenigen Jahren haben wir eine dramatische Veränderung in den Fähigkeiten und Methoden potenzieller Bedrohungsakteure erlebt. Diese Evolution spiegelt die beschleunigte Entwicklung wider, die wir bei KI-Technologien gesehen haben, aber mit einer besorgniserregenden Wendung.
Ein Beispiel:
- Schnelle Bewaffnung von Schwachstellen. Heutige Angreifer können neu entdeckte Schwachstellen schnell ausnutzen, oft noch bevor Patches entwickelt und bereitgestellt werden können. KI-Tools beschleunigen diesen Prozess noch weiter und verringern das Zeitfenster zwischen der Entdeckung einer Schwachstelle und ihrer Ausnutzung.
- Erweiterte Angriffsfläche. Die weitverbreitete Adoption von Cloud-Technologien hat die potenzielle Angriffsfläche erheblich erweitert. Die verteilte Infrastruktur und das Shared-Responsibility-Modell zwischen Cloud-Anbietern und Benutzern schaffen neue Vektoren für die Ausnutzung, wenn diese nicht ordnungsgemäß gemanagt werden.
- Veraltete traditionelle Sicherheitsmaßnahmen. Legacy-Sicherheitstools wie Firewalls und Antiviren-Software kämpfen darum, mit diesen sich entwickelnden Bedrohungen Schritt zu halten, besonders wenn es darum geht, KI-generierte Inhalte zu erkennen und zu mildern.
Wer spricht da
In diesem neuen Bedrohungslandschaft stellen Deepfakes eine besonders heimtückische Herausforderung für die Integrität von Wahlen dar. Aktuelle Forschung von Ivanti liefert Zahlen zu dieser Bedrohung: Mehr als die Hälfte der Büroangestellten (54%) sind sich nicht bewusst, dass fortschrittliche KI die Stimme von jedem nachahmen kann. Diese mangelnde Bewusstsein unter potenziellen Wählern ist besorgniserregend, da wir uns einer kritischen Wahlperiode nähern.
Es steht so viel auf dem Spiel.
Die Sophistikation der heutigen Deepfake-Technologie ermöglicht es Bedrohungsakteuren, sowohl ausländischen als auch inländischen, überzeugende gefälschte Audio-, Video- und Textinhalte mit minimalem Aufwand zu erstellen. Ein einfacher Textprompt kann jetzt einen Deepfake generieren, der immer schwieriger von echten Inhalten zu unterscheiden ist. Diese Fähigkeit hat ernsthafte Auswirkungen auf die Verbreitung von Fehlinformationen und die Manipulation der öffentlichen Meinung.
Herausforderungen bei der Zuweisung und Milderung
Die Zuweisung ist eine der größten Herausforderungen, denen wir bei KI-generierten Wahlbeeinflussungen gegenüberstehen. Während wir historisch Wahlbeeinflussung mit staatlichen Akteuren assoziiert haben, bedeutet die Demokratisierung von KI-Tools, dass inländische Gruppen, von verschiedenen ideologischen Motivationen getrieben, diese Technologien nutzen können, um Wahlen zu beeinflussen.
Diese Diffusion potenzieller Bedrohungsakteure kompliziert unsere Fähigkeit, Quellen von Fehlinformationen zu identifizieren und zu mildern. Sie unterstreicht auch die Notwendigkeit eines vielschichtigen Ansatzes zur Wahlssicherheit, der über traditionelle Cybersicherheitsmaßnahmen hinausgeht.
Koordinierte Anstrengungen zur Wahrung der Wahlintegrität
Die Herausforderung von AI-gestützten Deepfakes in Wahlen erfordert eine koordinierte Anstrengung über mehrere Sektoren hinweg. Hier sind Schlüsselbereiche, in denen wir unsere Anstrengungen konzentrieren müssen:
- Sicherheit für KI-Systeme von Anfang an. Wir müssen die Prinzipien von “Shift-Left”-Sicherheit auf die Entwicklung von KI-Systemen selbst anwenden. Das bedeutet, Sicherheitsaspekte von den frühesten Stadien der KI-Modellentwicklung einzubeziehen, einschließlich Überlegungen zu möglichen Missbrauch in Wahlbeeinflussung.
- Durchsetzung sicherer Konfigurationen. KI-Systeme und -Plattformen, die potenziell zur Erstellung von Deepfakes verwendet werden könnten, sollten standardmäßig robuste, sichere Konfigurationen haben. Dazu gehören starke Authentifizierungsmaßnahmen und Einschränkungen der Arten von Inhalten, die generiert werden können.
- Sicherung der KI-Lieferkette. So wie wir uns auf die Sicherung der Software-Lieferkette konzentrieren, müssen wir diese Wachsamkeit auf die KI-Lieferkette ausdehnen. Dazu gehört die Überprüfung der Datenmengen, die zur Schulung von KI-Modellen verwendet werden, und der Algorithmen, die in generativen KI-Systemen eingesetzt werden.
- Erweiterte Erkennungsfähigkeiten. Wir müssen in fortschrittliche Erkennungstools investieren und diese entwickeln, um KI-generierte Inhalte, insbesondere im Kontext von wahlbezogenen Informationen, identifizieren zu können. Dies wird wahrscheinlich die Nutzung von KI selbst zur Bekämpfung von KI-generierter Fehlinformation beinhalten.
- Bildung und Bewusstseinsbildung der Wähler. Ein entscheidender Bestandteil unserer Verteidigung gegen Deepfakes ist ein informiertes Wählerpublikum. Wir benötigen umfassende Bildungsprogramme, um Wählern zu helfen, die Existenz und die potenzielle Auswirkung von KI-generierten Inhalten zu verstehen, und um ihnen Werkzeuge zur kritischen Bewertung der Informationen zu geben, die sie erhalten.
- Branchenübergreifende Zusammenarbeit. Der Tech-Sektor, insbesondere IT- und Cybersicherheitsunternehmen, muss eng mit Regierungsbehörden, Wahlbeamten und Medienorganisationen zusammenarbeiten, um eine einheitliche Front gegen AI-getriebene Wahlbeeinflussung zu schaffen.
Was jetzt und was als Nächstes
Wenn wir diese Strategien umsetzen, ist es entscheidend, dass wir ihre Wirksamkeit kontinuierlich messen. Dazu werden neue Metriken und Überwachungstools benötigt, die speziell dafür entwickelt werden, die Auswirkung von KI-generierten Inhalten auf Wahlverhandlungen und Wählerverhalten zu verfolgen.
Wir sollten auch darauf vorbereitet sein, unsere Strategien schnell anzupassen. Das Feld der KI entwickelt sich mit atemberaubender Geschwindigkeit, und unsere Abwehrmaßnahmen müssen ebenso schnell evolvieren. Dies kann die Nutzung von KI selbst zur Schaffung robuster und anpassungsfähigerer Sicherheitsmaßnahmen beinhalten.
Die Herausforderung von AI-gestützten Deepfakes in Wahlen stellt ein neues Kapitel in Cybersicherheit und Informationsintegrität dar. Um dies zu bewältigen, müssen wir über traditionelle Sicherheitsparadigmen hinausdenken und eine Zusammenarbeit über Sektoren und Disziplinen hinweg fördern. Das Ziel: Die Macht von KI zum Nutzen demokratischer Prozesse nutzen und gleichzeitig ihren potenziellen Schaden mildern. Dies ist nicht nur eine technische Herausforderung, sondern auch eine gesellschaftliche, die kontinuierliche Wachsamkeit, Anpassung und Kooperation erfordert.
Die Integrität unserer Wahlen — und damit die Gesundheit unserer Demokratie — hängt von unserer Fähigkeit ab, dieser Herausforderung direkt entgegenzutreten. Dies ist eine Verantwortung, die auf uns alle zukommt: Technologen, Politiker und Bürger gleichermaßen.












