Kunstig intelligens
Deepfake-Detektorer søger nye grunde: Latente Diffusionsmodeller og GANs

Opinion
For nylig har deepfake-detektionsforskningsfællesskabet, der siden slutningen af 2017 næsten udelukkende har beskæftiget sig med autoencoder-baseret rammeværk, der havde sin premiere på det tidspunkt til offentlig beundring (og forsmåelse), begyndt at tage en retsmedicinsk interesse i mindre stagnerende arkitekturer, herunder latente diffusionsmodeller som DALL-E 2 og Stable Diffusion, samt output fra Generative Adversarial Networks (GANs). For eksempel offentliggjorde UC Berkeley i juni resultaterne af sin forskning i udviklingen af en detector for output fra den daværende dominerende DALL-E 2.
Det, der synes at drive denne voksende interesse, er det pludselige evolutionsspring i kapacitet og tilgængelighed af latente diffusionsmodeller i 2022, med den lukkede kilde og begrænsede adgang frigivelse af DALL-E 2 om foråret, efterfulgt i slutningen af sommeren af den sensationelle åbne kilde af Stable Diffusion af stability.ai.
GANs er også blevet længe studeret i denne sammenhæng, selvom det er meget svært at bruge dem til overbevisende og omfattende video-baserede genskabelser af mennesker; i hvert fald, sammenlignet med de nu værdsatte autoencoder-pakker som FaceSwap og DeepFaceLab – og sidstnævntes live-streaming-fætter, DeepFaceLive.
Bevægelige billeder
Ingen af delene synes at være den galvaniserende faktor, der kan fremme en efterfølgende udviklingssprint for video-syntese. Starten af oktober – og 2022’s store konference-sæson – var kendetegnet ved en pludselig og uventet løsning på forskellige langvarige video-syntese-problemer: lige så snart Facebook frigav eksempler på sin egen tekst-til-video-platform, overtog Google Research hurtigt den oprindelige anerkendelse ved at annoncere sin nye Imagen-to-Video T2V-arkitektur, der kan producere højopløseligt footage (om end kun via et 7-lag-netværk af opskaleringer).
Hvis du tror, at den slags ting kommer i tre, overvej også stability.ai’s gådefulde løfte om, at ‘video er på vej’ til Stable Diffusion, tilsyneladende senere i år, mens Stable Diffusion-samudvikler Runway har givet et lignende løfte, selvom det er uklart, om de henviser til samme system. Discord-besked fra Stability’s CEO Emad Mostaque lovede også ‘lyd, video [og] 3D’.
Med en pludselig tilbud af flere nye lydgenereringsrammer (nogle baseret på latent diffusionsmodeller) og en ny diffusionsmodel, der kan generere ægte karakterbevægelse, begynder idéen om, at ‘statiske’ rammer som GANs og diffusorer endelig vil tage deres plads som støttende adjunkter til eksterne animationsrammer at få rigtig trækguld.
Blade Runner
De to seneste artikler, der henholdsvis omhandler latent diffusions- og GAN-baseret deepfake-detektion, er DE-FAKE: Detection and Attribution of Fake Images Generated by Text-to-Image Diffusion Models, et samarbejde mellem CISPA Helmholtz Center for Information Security og Salesforce, og BLADERUNNER: Rapid Countermeasure for Synthetic (AI-Generated) StyleGAN Faces fra Adam Dorian Wong på MIT’s Lincoln Laboratory.
Før det nye papir beskriver sin metode, tager det noget tid til at undersøge tidligere tilgange til at bestemme, om et billede er genereret af en GAN (artiklen beskæftiger sig specifikt med NVIDIA’s StyleGAN-familie).
‘Brady Bunch’-metoden – måske en meningsløs reference for nogen, der ikke så tv i 1970’erne eller gik glip af 1990’ernes filmtilpasninger – identificerer GAN-forgede indhold baseret på de faste positioner, som bestemte dele af et GAN-ansigt er sikre på at besætte, på grund af den rutine- og skabelonmæssige natur af ‘produktionsprocessen’.
En anden nyttig kendt indikation er StyleGAN’s hyppige manglende evne til at rendre flere ansigter (første billede nedenfor), hvis nødvendigt, samt dets manglende talent for tilbehørs koordination (mellemste billede nedenfor) og en tendens til at bruge en hårlinje som starten på en improviseret hat (tredje billede nedenfor).
DE-FAKE
DE-FAKE-arkitekturen sigter ikke kun på at opnå ‘universel detektion’ for billeder produceret af tekst-til-billede-diffusionsmodeller, men også på at give en metode til at skelne hvilken latent diffusionsmodel (LD) producerede billedet.
Arkitekturen bruger OpenAI’s Contrastive Language-Image Pretraining (CLIP) multimodal bibliotek – et essentiel element i Stable Diffusion og hurtigt bliver hjertet af den nye bølge af billed-/videosyntese-systemer – som en måde til at trække ud embeddings fra ‘falske’ LD-billeder og træne en klassifikator på de observerede mønstre og klasser.
Normalt ville vi tage et meget omfattende kig på resultaterne af forskernes eksperimenter for en ny ramme; men i virkeligheden synes DE-FAKE’s fund at være mere nyttige som en fremtidig benchmark for senere iterationer og lignende projekter, snarere end som en meningsfuld målestok for projektets succes, med tanke på den volatile miljø, det opererer i, og at systemet, det konkurrerer mod i papirets forsøg, er næsten tre år gammel – fra tilbage, da billedsyntese-scenen virkelig var i sin vorden.












