Stummel Im Jahr 2024 werden Deepfakes zum Mainstream. So können sich Unternehmen schützen – Unite.AI
Vernetzen Sie sich mit uns

Vordenker

Im Jahr 2024 werden Deepfakes zum Mainstream. So können sich Unternehmen schützen

mm

Veröffentlicht

 on

Spätestens seit der Wahl 2016, als Bedenken hinsichtlich Desinformation in das öffentliche Bewusstsein gelangten, schlagen Experten Alarm wegen Deepfakes. Die Auswirkungen dieser Technologie waren und sind erschreckend. Die ungebremste Verbreitung hyperrealistischer synthetischer Medien stellt eine Bedrohung dar jedermann– von Politikern bis hin zu gewöhnlichen Menschen. In einem explosiven Umfeld, das bereits von weit verbreitetem Misstrauen geprägt war, versprachen Deepfakes, die Flammen nur noch weiter anzuheizen.

Wie sich herausstellte, waren unsere Befürchtungen verfrüht. Das technische Know-how, das erforderlich ist, um Deepfakes tatsächlich herzustellen, gepaart mit ihrer oft minderwertigen Qualität führten dazu, dass sie zumindest in den letzten beiden Präsidentschaftswahlzyklen ein minimales Problem darstellten.

Aber all das wird sich bald ändern – es ändert sich bereits. In den letzten zwei Jahren hat die generative KI-Technologie Einzug in den Mainstream gehalten und den Prozess der Erstellung von Deepfakes für den Durchschnittsverbraucher radikal vereinfacht. Dieselben Innovationen haben die Qualität von Deepfakes erheblich verbessert, sodass die meisten Menschen in einem Blindtest nicht in der Lage wären, ein manipuliertes Video vom Original zu unterscheiden.

Insbesondere in diesem Jahr sehen wir erste Anzeichen dafür, wie sich diese Technologie auf die Gesellschaft auswirken könnte, wenn keine Anstrengungen unternommen werden, sie zu bekämpfen. Letztes Jahr zum Beispiel ein KI-generiertes Foto von Papst Franziskus in einem ungewöhnlich eleganten Mantel ist schnell bekannt gewordenund wurde von vielen als authentisch angesehen. Während dies auf einer Ebene wie ein harmloser Spaß erscheinen mag, zeigt es die gefährliche Potenz dieser Deepfakes und wie schwierig es sein kann, Fehlinformationen einzudämmen, wenn sie einmal begonnen haben, sich zu verbreiten. Wir können davon ausgehen, dass wir in den kommenden Monaten und Jahren weitaus weniger amüsante – und weitaus gefährlichere – Beispiele dieser Art von viraler Fälschung finden werden.

Aus diesem Grund ist es unerlässlich, dass Organisationen aller Couleur – von den Medien über die Finanzwelt bis hin zu Regierungen und Social-Media-Plattformen – eine proaktive Haltung zur Erkennung von Deepfakes und zur Überprüfung der Authentizität von Inhalten einnehmen. Es muss eine Kultur des Vertrauens durch Schutzmaßnahmen etabliert werden jetzt an, bevor eine Flutwelle von Deepfakes unser gemeinsames Verständnis der Realität wegspülen kann.

Die Deepfake-Bedrohung verstehen

Bevor wir uns damit befassen, was Organisationen tun können, um diesen Anstieg an Deepfakes zu bekämpfen, lohnt es sich, genau zu erläutern, warum Schutzinstrumente notwendig sind. Typischerweise verweisen diejenigen, die über Deepfakes besorgt sind, auf deren potenzielle Auswirkungen auf die Politik und das gesellschaftliche Vertrauen. Diese möglichen Konsequenzen sind äußerst wichtig und sollten in keinem Gespräch über Deepfakes vernachlässigt werden. Aber tatsächlich hat der Aufstieg dieser Technologie möglicherweise verheerende Auswirkungen auf mehrere Sektoren der US-Wirtschaft.

Schließen Sie zum Beispiel eine Versicherung ab. Derzeit beläuft sich der jährliche Versicherungsbetrug in den Vereinigten Staaten auf bis zu 308.6 Milliarden US-Dollar – eine Zahl, die etwa ein Viertel so groß ist wie die der gesamten Branche. Gleichzeitig werden die Back-End-Abläufe der meisten Versicherungsunternehmen zunehmend automatisiert, sodass bis 70 voraussichtlich 2025 % der Standardschäden berührungslos abgewickelt werden. Das bedeutet, dass Entscheidungen zunehmend mit minimalem menschlichen Eingriff getroffen werden: Selbstbedienung am Arbeitsplatz Frontend und KI-gestützte Automatisierung im Backend.

Ironischerweise hat genau die Technologie, die diesen Anstieg der Automatisierung ermöglicht hat – maschinelles Lernen und künstliche Intelligenz – ihre Ausnutzung durch schlechte Akteure garantiert. Für den Durchschnittsbürger ist es heute einfacher denn je, Ansprüche zu manipulieren – beispielsweise durch den Einsatz generativer KI-Programme wie Dall-E, Midjourney oder Stable Diffusion, um ein Auto beschädigter aussehen zu lassen, als es ist. Es gibt bereits Apps speziell für diesen Zweck, etwa „Dude Your Car!“, mit der Nutzer künstlich Dellen in Fotos ihrer Fahrzeuge erzeugen können.

Das Gleiche gilt für offizielle Dokumente, die jetzt leicht manipuliert werden können – mit Rechnungen, Versicherungsgutachten und sogar Unterschriften, die im großen Stil angepasst oder erfunden werden. Diese Fähigkeit ist nicht nur für Versicherer, sondern in der gesamten Wirtschaft ein Problem. Dies ist ein Problem für Finanzinstitute, die die Echtheit einer Vielzahl von Dokumenten überprüfen müssen. Dies ist ein Problem für Einzelhändler, die möglicherweise eine Beschwerde erhalten, dass ein Produkt fehlerhaft angekommen ist, zusammen mit einem manipulierten Bild.

Unternehmen können mit diesem Maß an Unsicherheit einfach nicht arbeiten. Ein gewisses Maß an Betrug ist wahrscheinlich immer unvermeidlich, aber bei Deepfakes sprechen wir nicht von Betrug am Rande – wir sprechen von einer potenziellen erkenntnistheoretischen Katastrophe, bei der Unternehmen keine klaren Mittel haben, um Wahrheit von Fiktion zu unterscheiden, und am Ende Milliarden verlieren Dollar zu dieser Verwirrung.

Feuer mit Feuer bekämpfen: Wie KI helfen kann

Was kann also getan werden, um dem entgegenzuwirken? Es überrascht vielleicht nicht, dass die Antwort genau in der Technologie liegt, die Deepfakes ermöglicht. Wenn wir dieser Geißel Einhalt gebieten wollen, bevor sie noch schlimmer wird, müssen wir Feuer mit Feuer bekämpfen. KI kann dabei helfen, Deepfakes zu generieren – aber glücklicherweise kann sie auch dabei helfen, sie automatisch und in großem Maßstab zu identifizieren.

Mit den richtigen KI-Tools können Unternehmen automatisch feststellen, ob ein bestimmtes Foto, Video oder Dokument manipuliert wurde. Indem sie Dutzende unterschiedlicher Modelle zur Aufgabe der gefälschten Identifizierung heranzieht, kann KI Unternehmen automatisch genau sagen, ob ein bestimmtes Foto oder Video verdächtig ist. Ebenso wie die Tools, die Unternehmen bereits zur Automatisierung ihrer täglichen Abläufe einsetzen, können diese Tools im Hintergrund ausgeführt werden, ohne überlastetes Personal zu belasten oder Zeit von wichtigen Projekten zu nehmen.

Wenn ein Foto als potenziell verändert identifiziert wird, kann das menschliche Personal alarmiert werden und mithilfe der von der KI bereitgestellten Informationen das Problem direkt bewerten. Mithilfe einer Deep-Scan-Analyse kann es Unternehmen informieren warum Es geht davon aus, dass ein Foto wahrscheinlich manipuliert wurde – was beispielsweise auf manuell geänderte Metadaten, das Vorhandensein identischer Bilder im Internet, verschiedene fotografische Unregelmäßigkeiten usw. hinweist.

Nichts davon soll die unglaublichen Fortschritte verunglimpfen, die wir in den letzten Jahren in der generativen KI-Technologie gesehen haben und die tatsächlich branchenübergreifend nützliche und produktive Anwendungen haben. Aber gerade die Leistungsfähigkeit – ganz zu schweigen von der Einfachheit – dieser aufkommenden Technologie garantiert nahezu ihren Missbrauch durch diejenigen, die Organisationen manipulieren wollen, sei es zum persönlichen Vorteil oder um gesellschaftliches Chaos zu säen.

Organisationen kann Genießen Sie das Beste aus beiden Welten: die Produktivitätsvorteile von KI ohne die Nachteile allgegenwärtiger Deepfakes. Dies erfordert jedoch ein neues Maß an Wachsamkeit, insbesondere angesichts der Tatsache, dass die Ergebnisse der generativen KI von Tag zu Tag überzeugender, detaillierter und lebensechter werden. Je früher sich Unternehmen mit diesem Problem befassen, desto eher können sie die Vorteile einer automatisierten Welt voll ausschöpfen.

Nicos Vekiarides ist CEO und Mitbegründer von attestiv. In den letzten 20 Jahren war er als CEO und Unternehmer in der Unternehmens-IT und Cloud tätig und hat innovative neue Technologien auf den Markt gebracht. Sein früheres Startup TwinStrata, ein innovatives Cloud-Speicherunternehmen, bei dem er als Pionier für Cloud-integrierten Speicher für Unternehmen tätig war, wurde 2014 von EMC übernommen. Zuvor brachte er die branchenweit erste Speichervirtualisierungs-Appliance für StorageApps auf den Markt, ein Unternehmen, das später von übernommen wurde PS.