Myslitelé
Deepfakes a navigace v nové éře syntetických médií
Pamatujete si “fake news”? Tento termín byl používán (a zneužíván) natolik, že je těžké si vzpomenout, na co původně odkazoval. Ale koncept má velmi specifický původ. Před deseti lety začali novináři varovat před přílivem údajných “zpravodajských” stránek, které šíří falešné, často absurdní tvrzení o politikích a celebritách. Mnozí mohli okamžitě rozpoznat, že tyto stránky jsou nelegitimní.
Ale mnoho dalších postrádalo kritické nástroje, aby rozpoznali tento jev. Výsledkem byly první příznaky epistemologické krize, která nyní pohlcuje internet – krize, která dosáhla svého nejstrašidelnějšího projevu se vzestupem deepfakes.
V porovnání s i jen průměrným deepfake, “fake news” webové stránky z minulosti vypadají nevinně. Horší je, že i ti, kteří se považují za relativně gramotné v médiích, jsou v ohrožení, že budou oklamaní. Syntetická média vytvořená pomocí algoritmů hlubokého učení a generativního AI mají potenciál způsobit chaos v základech naší společnosti. Podle Deloitte by tyto syntetická média mohla letos sama o sobě stát podniky více než 250 milionů dolarů prostřednictvím falešných transakcí a jiných druhů podvodů. Mezitím Světové ekonomické fórum označilo deepfakes za “jedno z nejvíce znepokojivých použití AI”, poukazující na potenciál “agenda-driven, real-time AI chatbotů a avatarů” k usnadnění nových kmenů ultra-personalizované (a ultra-účinné) manipulace.
Navrhovaná odpověď Světového ekonomického fóra na tento problém je rozumná: doporučují “zero-trust mindset“, který přináší určitou dávku skepse do každého setkání s digitálními médii. Pokud chceme rozlišovat mezi autentickými a syntetickými médii v budoucnu – zejména v imerzivních online prostředích – takový postoj bude stále více essenciální.
Dvě přístupy k boji proti krizi deepfakes
Boj proti rozsáhlé dezinformaci vytvořené syntetickými médii bude vyžadovat, podle mého názoru, dva rozdílné přístupy.
První zahrnuje verifikaci: poskytování jednoduchého způsobu, jak pro běžné uživatele internetu určit, zda video, které sledují, je skutečně autentické. Takové nástroje jsou již široce používány v odvětvích, jako je pojištění, vzhledem k potenciálu špatných aktérů podat falešné nároky s pomocí upravených videí, fotografií a dokumentů. Demokratizace těchto nástrojů – tj. zpřístupnění zdarma a snadné použití – je zásadním prvním krokem v tomto boji, a již vidíme významný pokrok na této frontě.
Druhý krok je méně technologický a tudíž větší výzvou: konkrétně zvyšování povědomí a rozvíjení kritického myšlení. V důsledku původního skandálu “fake news” v roce 2015 vytvořily neziskové organizace po celé zemi programy mediální gramotnosti a pracovaly na šíření osvědčených postupů, často ve spolupráci s místními občanskými institucemi, aby umožnily běžným občanům rozpoznat nepravdy. Samozřejmě, staré “fake news” jsou dětskou hrou ve srovnání s nej pokročilejšími deepfakes, a proto musíme znásobit naše úsilí na této frontě a investovat do vzdělávání na všech úrovních.
Pokročilé deepfakes vyžadují pokročilé kritické myšlení
Samozřejmě, tyto vzdělávací iniciativy byly somewhat snazší, když šlo o textové dezinformace. U falešných zpravodajských stránek byly zjevné známky podvodu často zřejmé: nekvalitní webové design, četné překlepy, podivné zdroje. U deepfakes jsou tyto známky mnohem jemnější – a často je nelze rozpoznat na první pohled.
V souladu s tím musí uživatelé internetu všech věkových kategorií účinně přeškolit sami sebe, aby prohlíželi digitální video pro indikátory deepfakes. To znamená věnovat pozornost řadě faktorů. U videa to může znamenat nepravděpodobně rozmazané oblasti a stíny; nepřirozeně vypadající obličejové pohyby a výrazy; příliš dokonalé tóny pleti; nekonzistentní vzory v oděvu a pohybech; chyby synchronizace rtů; a tak dále. U audio to může znamenat hlasy, které znějí příliš čistě (nebo zjevně digitalizovaně), nedostatek lidského emocionálního tónu, podivné řečové vzorce nebo neobvyklé formulace.
V krátkodobém horizontu může být tento druh sebeškolování velmi užitečný. Opakovaným ptáním se sami sebe, zda toto vypadá podezřele, zostřujeme nejen naši schopnost detekovat deepfakes, ale také naše kritické myšlení obecně. Říkáme si, zda toto vypadá podezřele, a tím rozvíjíme naše schopnosti. To řečeno, rychle se blížíme k bodu, ve kterém ani nejlepší trénovaný pohled nebude schopen rozlišit fakt od fikce bez vnější pomoci. Vizuální známky – nepravidelnosti zmíněné výše – budou technologicky vyhlazeny, takže zcela vyrobené klipy budou nerozlišitelné od skutečných. Co nám zůstane, je naše situační intuice – naše schopnost klást si otázky, jako zda by takový a takový politik nebo celebrita opravdu řekl to, zda je obsah tohoto videa uvěřitelný.
Je v tomto kontextu, že platformy pro detekci AI se stávají tak essenciálními. S tím, že oko bez pomoci nemůže rozlišit deepfakes, tyto platformy mohou sloužit jako definitivní arbitři reality – zábrany proti epistemologické propasti. Když video vypadá reálně, ale nějak vypadá podezřele – jak se bude stávat častěji v nadcházejících měsících a letech – tyto platformy mohou udržet nás ukotvené ve faktech potvrzováním základní pravdivosti toho, na co se díváme. V konečném důsledku, s tak silnou technologií, jediná věc, která nás může zachránit, je AI sama. Musíme bojovat ohněm proti ohni – což znamená používat dobré AI k odstranění nejhorších zneužití technologie.
Skutečně, získání těchto dovedností nikterak nemusí být cynickým nebo negativním procesem. Rozvíjení zero-trust mindsetu lze místo toho považovat za příležitost zostřit naše kritické myšlení, intuici a povědomí. Opakovaným ptáním se sami sebe, zda toto dává smysl, zda toto vypadá podezřele, zvyšujeme naši schopnost konfrontovat nejen falešná média, ale i svět sám. Pokud existuje stříbrná linie éry deepfakes, je to tato. Jsme nuceni myslet sami za sebe a stát se více empirickými ve svém každodenním životě – a to může být pouze dobré.










