Tanke ledere
Deepfakes og navigation i den nye æra af syntetiske medier

Husker du "falske nyheder"? Udtrykket er blevet brugt (og misbrugt) så meget på dette tidspunkt, at det kan være svært at huske, hvad det oprindeligt refererede til. Men konceptet har en meget specifik oprindelse. For ti år siden begyndte journalister at slå alarm om en tilstrømning af påståede "nyhedssider", der fremsender falske, ofte besynderlige påstande om politikere og berømtheder. Mange kunne med det samme fortælle, at disse websteder var illegitime.
Men mange flere manglede de kritiske værktøjer til at erkende dette. Resultatet var de første bevægelser af en epistemologisk krise, der nu er ved at opsluge internettet - en krise, der har nået sin mest skræmmende manifestation med fremkomsten af deepfakes.
Ud over selv en acceptabel deepfake virker tidligere "fake news"-websteder tamme. Endnu værre er det, at selv dem, der mener, at de besidder relativt høje niveauer af mediekendskab, risikerer at blive narre. Syntetiske medier skabt ved brug af dyb læringsalgoritmer og generativ AI har potentialet til at skabe kaos på grundlaget for vores samfund. Ifølge Deloitte kan de alene i år koste virksomheder mere end 250 millioner dollars gennem falske transaktioner og andre former for svindel. I mellemtiden har World Economic Forum kaldt deepfakes "en af ​​de mest bekymrende anvendelser af AI", og peger på potentialet i "agenda-drevne, real-time AI chatbots og avatarer" for at lette nye stammer af ultra-personaliseret (og ultra- effektiv) manipulation.
WEF's foreslåede svar på dette problem er fornuftigt: de går ind for en “nul-tillid tankegang,” en, der bringer en vis skepsis til ethvert møde med digitale medier. Hvis vi ønsker at skelne mellem det autentiske og syntetiske fremad – især i fordybende online-miljøer – vil en sådan tankegang blive stadig mere essentiel.
To tilgange til at bekæmpe den dybe falske krise
Bekæmpelse florerer misinformation opdrættet af syntetiske medier vil efter min mening kræve to forskellige tilgange.
Den første involverer verifikation: at give almindelige internetbrugere en enkel måde at afgøre, om den video, de ser, rent faktisk er autentisk. Sådanne værktøjer er allerede udbredte i brancher som forsikring, givet potentielt potentielt for kriminelle aktører til at indgive falske krav, der fremmes af forfalskede videoer, fotografier og dokumenter. Demokratisering af disse værktøjer – at gøre dem gratis og nemme at få adgang til – er et afgørende første skridt i denne kamp, ​​og vi ser allerede betydelig bevægelse på denne front.
Det andet trin er mindre teknologisk af natur og dermed mere udfordrende: nemlig at øge bevidstheden og fremme kritisk tænkning. I kølvandet på den oprindelige "falske nyheder"-skandale i 2015 udarbejdede nonprofitorganisationer over hele landet mediekendskabsprogrammer og arbejdede på at udbrede bedste praksis, ofte i samarbejde med lokale civile institutioner for at give almindelige borgere mulighed for at få øje på usandheder. Selvfølgelig er gammeldags "falske nyheder" en leg i forhold til de mest avancerede deepfakes, og derfor er vi nødt til at fordoble vores indsats på denne front og investere i uddannelse på alle niveauer.
Avancerede deepfakes kræver avanceret kritisk tænkning
Naturligvis var disse uddannelsesinitiativer noget nemmere at gennemføre, når den pågældende desinformation var tekstbaseret. Med falske nyhedssider var de afslørende tegn på svig ofte tydelige: skævt webdesign, voldsomme slåfejl, bizarre indkøb. Med deepfakes er tegnene meget mere subtile - og ofte umulige at bemærke ved første øjekast.
Derfor skal internetbrugere i alle aldre effektivt genoptræne sig selv til at undersøge digital video for deepfake-indikatorer. Det betyder, at man skal være meget opmærksom på en række faktorer. For video kan det betyde uvirkeligt tilsyneladende slørede områder og skygger; unaturligt udseende ansigtsbevægelser og udtryk; for perfekte hudtoner; inkonsistente mønstre i tøj og i bevægelser; læbesynkroniseringsfejl; ved og ved. For lyd kan det betyde stemmer, der lyder for uberørt (eller åbenlyst digitaliserede), mangel på en følelsesmæssig tone med menneskelig fornemmelse, mærkelige talemønstre eller usædvanlige fraseringer.
På kort sigt kan denne form for selvtræning være yderst nyttig. Ved at spørge os selv igen og igen: Ser det mistænkeligt ud?, skærper vi ikke blot vores evne til at opdage deepfakes, men vores evner til at tænke kritisk i almindelighed. Når det er sagt, nærmer vi os hurtigt et punkt, hvor ikke engang det bedst trænede øje vil være i stand til at adskille fakta fra fiktion uden hjælp udefra. De visuelle fortællinger - de ovenfor nævnte uregelmæssigheder - vil blive udjævnet teknologisk, således at helt fremstillede klip ikke kan skelnes fra den ægte vare. Det, vi vil stå tilbage med, er vores situationelle intuition – vores evne til at stille os selv spørgsmål som Ville sådan-og-sådan en politiker eller berømthed virkelig sige det? Er indholdet af denne video plausibelt?
Det er i denne sammenhæng, at AI-detektionsplatforme bliver så vigtige. Med det blotte øje gjort irrelevant til deepfake-detektionsformål, kan disse platforme tjene som definitive dommere over virkeligheden - værn mod den epistemologiske afgrund. Når en video ser ægte ud, men på en eller anden måde virker mistænkelig – som det vil ske oftere og oftere i de kommende måneder og år – kan disse platforme holde os jordet i fakta ved at bekræfte den grundlæggende sandhed af det, vi ser på. I sidste ende, med denne kraftfulde teknologi, er det eneste, der kan redde os, AI selv. Vi skal bekæmpe ild med ild – hvilket betyder at bruge god kunstig intelligens til at udrydde teknologiens værste misbrug.
Tilegnelsen af ​​disse færdigheder behøver på ingen måde at være en kynisk eller negativ proces. At fremme en nultrust-tankegang kan i stedet betragtes som en mulighed for at skærpe din kritiske tænkning, intuition og bevidsthed. Ved at stille dig selv igen og igen visse nøglespørgsmål – Giver det mening? Er det mistænkeligt? – øger du din evne til at konfrontere ikke blot falske medier, men verden i det store og hele. Hvis der er en positiv side ved deepfake-æraen, så er det denne. Vi bliver tvunget til at tænke selv og blive mere empiriske i vores dagligdag – og det kan kun være en god ting.