Kunstig intelligens
‘Deep Fakes’ Kan Snart Komme Ind I Geografi

Bekymringerne om ‘deep fakes’ begynder at brede sig til andre områder, såsom geografisk informationsvidenskab (GIS). Forskere ved Binghamton University er nu begyndt at tackle dette potentielle problem.
Holdet består af associeret professor i geografi Chengbin Deng og fire andre kolleger, herunder Bo Zhao og Yifan Sun fra University of Washington, og Shaozeng Zhang og Chunxue Xu fra Oregon State University.
Den nye forskning er offentliggjort i Cartography and Geographic Information Science, med titlen “Deep fake geografi? Når georumlige data møder kunstig intelligens.”
I artiklen udforsker holdet, hvordan falske satellitbilleder kan konstrueres og detekteres.
“Ærligt talt, er vi sandsynligvis de første til at genkende dette potentielle problem,” sagde Deng.
Geografisk Informationsvidenskab (GIS) og GeoAI
Geografisk informationsvidenskab (GIS) bruges til mange forskellige formål, herunder nationalt forsvar og autonome køretøjer. Gennem udviklingen af Geospatial Artificial Intelligence (GeoAI) har AI-teknologien haft en betydning for feltet.
GeoAI bruger maskinel læring til at udtrække og analysere georumlige data. Men GeoAI kan også bruges til at forfalske GPS-signaler, lokationsinformation på sociale medier, fabrikere fotografier af geografiske miljøer og til en lang række andre farlige formål.
“Vi skal sikre, at alt dette er i overensstemmelse med etikken. Men samtidig skal vi forskere også være opmærksomme og finde en måde at differentiere eller identificere disse falske billeder,” sagde Deng. “Med mange datasæt kan disse billeder se ægte ud for det menneskelige øje.”
Konstruktion Af Falske Billeder
Det første skridt til at detektere et kunstigt konstrueret billede er at konstruere et, så holdet afhængigt af den almindelige teknik til at oprette deep fakes kaldet Cycle-Consistent Adversarial Networks (CycleGAN). CycleGAN er en usuperviseret dyb læring algoritme, der kan simulere syntetisk medie.
Generative Adversarial Networks (GAN), som er en type AI, kræver træningseksempler af det indhold, de er programmeret til at producere. For eksempel kan GAN generere indhold til en tom plads på et kort ved at bestemme de forskellige muligheder.
Forskerne satte sig for at ændre et satellitbillede af Tacoma, Washington, og de indførte elementer fra Seattle og Beijing, mens de gjorde det så realistisk som muligt. Men forskerne advarer imod sådanne opgaver.
“Det handler ikke om teknikken, men om, hvordan mennesker bruger teknologien,” sagde Deng. “Vi vil bruge teknologien til gode formål, ikke til dårlige formål.”
Efter konstruktionen sammenlignede holdet 26 forskellige billedmetrikker for at bestemme, om der var nogen statistiske forskelle mellem de sande og falske billeder, og de registrerede sådanne forskelle på 20 af de 26 indikatorer (80%).
Forskellene omfattede tagenes farve, hvor farverne i de virkelige billeder var ensartede, mens de i de sammensatte billeder var flekkede. Holdet fandt også, at det falske satellitbillede var mindre farverigt og mere dystert, men det havde også skarpere kanter. Ifølge Deng afhængigt af de indtastninger, der blev brugt til at udvikle det falske.
Denne forskning lægger grundlaget for yderligere arbejde, der kan muliggøre, at geografer kan spore forskellige typer neurale netværk for at se, hvordan de genererer falske billeder, hvilket også fører til bedre detektion. Holdet siger, at systematiske metoder skal udvikles for at detektere deep fakes og verificere troværdig information på dette område.
“Vi alle vil have sandheden,” sagde Deng.










