Umělá inteligence
Kódování obrazů proti použití v systémech Deepfake a syntéze obrazů

Nejznámější směr výzkumu v rostoucím sektoru anti-deepfake výzkum zahrnuje systémy, které mohou rozpoznat artefakty nebo jiné údajné rozlišovací charakteristiky deepfaked, syntetizovaných nebo jinak zfalšovaných nebo “upravených” tváří ve video a obrazovém obsahu.
Takové přístupy používají různé taktiky, včetně detekce hloubky, poruchy pravidelnosti videa, variace osvětlení monitoru (v potenciálně deepfaked živých video hovorech), biometrické rysy, vnější oblasti obličeje a dokonce i skryté síly lidského podvědomého systému.
Co tyto a podobné metody mají společného, je to, že do doby, kdy jsou nasazeny, centrální mechanismy, proti kterým bojují, již byly úspěšně trénovány na tisících nebo stovkách tisíc obrazů ze webu – obrázků, z nichž autoencoderové systémy mohou snadno odvodit klíčové rysy a vytvořit modely, které mohou přesně vnutit falešnou identitu do videozáznamu nebo syntetizovaných obrazů – dokonce i v reálném čase.
Stručně řečeno, do doby, kdy jsou takové systémy aktivní, už je kůň pryč.
Obrazy, které jsou nepřátelské vůči architekturám Deepfake/Syntéza
Cestou více preventivní postoje k hrozbě deepfake a syntéze obrazů je méně známý směr výzkumu v tomto sektoru, který zahrnuje možnosti spočívající v tom, že všechny tyto zdrojové fotografie učiní “nepříznivé” vůči systémům syntézy obrazů AI, obvykle nezřetelným nebo stěží znatelným způsobem.
Příklady zahrnují FakeTagger, návrh z roku 2021 od různých institucí v USA a Asii, který kóduje zprávy do obrazů; tyto kódování jsou odolná vůči procesu generalizace a mohou být následně obnovena i po tom, co byly obrázky staženy z webu a trénovány do Generative Adversarial Network (GAN) typu, který je nejznámější díky thispersondoesnotexist.com a jeho četným derivátům.
… (zbytek překladu)












