Künstliche Intelligenz
‘Deep Fakes’ Könnten Bald in Die Geographie Eindringen

Die Bedenken über ‘Deep Fakes’ beginnen, sich auf andere Bereiche wie die Geographische Informationssysteme (GIS) auszudehnen. Forscher an der Binghamton University beginnen nun, dieses potenzielle Problem anzugehen.
Das Team umfasst den Associate Professor für Geographie Chengbin Deng und vier weitere Kollegen, darunter Bo Zhao und Yifan Sun an der University of Washington sowie Shaozeng Zhang und Chunxue Xu an der Oregon State University.
Die neue Forschung wurde in Cartography and Geographic Information Science, mit dem Titel “Deep fake geography? Wenn geospatialen Daten auf künstliche Intelligenz treffen” veröffentlicht.
In dem Paper erforscht das Team, wie falsche Satellitenbilder konstruiert und erkannt werden können.
“Ehrlich gesagt, wir sind wahrscheinlich die Ersten, die dieses potenzielle Problem erkennen”, sagte Deng.
Geographische Informationssysteme (GIS) und GeoAI
Geographische Informationssysteme (GIS) werden für viele verschiedene Anwendungen verwendet, einschließlich der nationalen Verteidigung und autonomer Fahrzeuge. Durch die Entwicklung von Geospatial Artificial Intelligence (GeoAI) hat die künstliche Intelligenz einen Einfluss auf das Feld.
GeoAI verwendet maschinelles Lernen, um geospatialen Daten zu extrahieren und zu analysieren. Allerdings kann GeoAI auch verwendet werden, um GPS-Signale zu fälschen, Standortinformationen in sozialen Medien zu fälschen, Fotos von geografischen Umgebungen zu fabrizieren und für eine Vielzahl von anderen gefährlichen Anwendungen.
“Wir müssen all dies im Einklang mit der Ethik halten. Aber gleichzeitig müssen wir Forscher auch darauf achten und einen Weg finden, um diese gefälschten Bilder zu erkennen”, sagte Deng. “Mit vielen Daten können diese Bilder für das menschliche Auge real aussehen.”
Konstruktion von Falschen Bildern
Der erste Schritt zur Erkennung eines künstlich konstruierten Bildes besteht darin, eines zu konstruieren, sodass das Team auf die gängige Technik für die Erstellung von Deep Fakes namens Cycle-Consistent Adversarial Networks (CycleGAN) zurückgriff. CycleGAN ist ein unüberwachtes Deep-Learning-Algorithmus, der synthetische Medien simulieren kann.
Generative Adversarial Networks (GAN), eine Art künstlicher Intelligenz, erfordern Trainingsbeispiele des Inhalts, den sie produzieren sollen. Zum Beispiel kann das GAN Inhalte für einen leeren Fleck auf einer Karte generieren, indem es die verschiedenen Möglichkeiten bestimmt.
Die Forscher versuchten, ein Satellitenbild von Tacoma, Washington, zu verändern und Elemente von Seattle und Peking hinzuzufügen, während sie es so realistisch wie möglich erscheinen ließen. Allerdings warnen die Forscher vor solchen Aufgaben.
“Es geht nicht um die Technik, sondern um die Art und Weise, wie Menschen die Technologie verwenden”, sagte Deng. “Wir wollen die Technologie für gute Zwecke und nicht für schlechte Zwecke verwenden.”
Nach der Erstellung verglich das Team 26 verschiedene Bildmetriken, um zu bestimmen, ob es statistische Unterschiede zwischen den echten und falschen Bildern gab, und sie registrierten solche Unterschiede bei 20 der 26 Indikatoren (80%).
Die Unterschiede umfassten die Farbe der Dächer, wobei die Farben in den echten Bildern einheitlich waren, während sie in den Kompositen gefleckt waren. Das Team fand auch heraus, dass das gefälschte Satellitenbild weniger farbenfroh und dunkler war, aber auch scharfere Kanten hatte. Laut Deng hingen die Unterschiede von den Eingaben ab, die zur Erstellung des Fakes verwendet wurden.
Diese Forschung legt den Grundstein für weitere Arbeiten, die es Geographen ermöglichen könnten, verschiedene Arten von neuronalen Netzen zu verfolgen, um zu sehen, wie sie gefälschte Bilder erzeugen, was auch zu einer besseren Erkennung führt. Das Team sagt, dass systematische Methoden entwickelt werden müssen, um Deep Fakes zu erkennen und vertrauenswürdige Informationen in diesem Bereich zu überprüfen.
“Wir alle wollen die Wahrheit”, sagte Deng.










