Spojte se s námi

Umělá inteligence

Nástroje AI prohlížeče mají za cíl rozpoznat Deepfakes a další falešná média

mm

Úsilí technologických společností vypořádat se s dezinformacemi a falešným obsahem v poslední době nabírá na rychlosti, protože sofistikované technologie generování falešného obsahu, jako je DeepFakes, se snáze používají a vylepšují. Jedním z nadcházejících pokusů pomoci lidem odhalit deepfakes a bojovat s nimi je RealityDefender, produkovaný společností nadace AI, která se zavázala k vývoji etických agentů a asistentů umělé inteligence, které mohou uživatelé trénovat k plnění různých úkolů.

Nejpozoruhodnějším projektem AI Foundation je platforma, která lidem umožňuje vytvářet si vlastní digitální persony, které vypadají jako oni a reprezentují je ve virtuálních hangoutových prostorech. Na AI Foundation dohlíží Globální rada pro AI a v rámci svého mandátu musí předvídat možné negativní dopady platforem AI a poté se snažit těmto problémům předcházet. Jak informoval VentureBeat, Jeden z nástrojů, který nadace AI vytvořila, aby napomáhal při odhalování deepfakes, se nazývá Reality Defender. Reality Defender je nástroj, který může člověk použít ve svém webovém prohlížeči (zaškrtněte to), který analyzuje video, obrázky a další typy médií, aby odhalil známky toho, že média byla nějakým způsobem zfalšována nebo pozměněna. Doufáme, že tento nástroj pomůže čelit rostoucímu toku deepfakes na internetu, který se podle některých odhadů za posledních šest měsíců zhruba zdvojnásobil.

Obránce reality funguje tak, že využívá různé algoritmy založené na umělé inteligenci, které dokážou detekovat stopy naznačující, že obrázek nebo video mohlo být zfalšováno. Modely AI detekují jemné známky lsti a manipulace a falešné poplachy, které model detekuje, jsou uživateli nástroje označeny jako nesprávné. Data se pak použijí k přetrénování modelu. Společnosti s umělou inteligencí, které vytvářejí neklamné deepfakes, mají svůj obsah označený značkou „poctivé AI“ nebo vodoznakem, který lidem umožňuje snadno identifikovat padělky generované AI.

Reality Defender je jen jedním ze sady nástrojů a celé platformy odpovědnosti AI, kterou se AI Foundation pokouší vytvořit. AI Foundation usiluje o vytvoření Guardian AI, platformy odpovědnosti postavené na zásadě, že jednotlivci by měli mít přístup k osobním agentům umělé inteligence, kteří pro ně pracují a kteří mohou pomoci chránit se před jejich zneužitím špatnými herci. Cílem AI Foundation je v podstatě rozšířit dosah AI ve společnosti, přiblížit ji více lidem a zároveň chránit před riziky AI.

Reality Defender není jediným novým produktem řízeným umělou inteligencí, jehož cílem je omezit dezinformace o Spojených státech. Podobný produkt se nazývá SurfSafe, který vytvořili dva vysokoškoláci z UC Berkeley, Rohan Phadte a Ash Bhat. Podle The Verge, SurfSafe funguje tak, že svým uživatelům umožňuje kliknout na médium, které je zajímá, a program provede zpětné vyhledávání obrázků a pokusí se najít podobný obsah z různých důvěryhodných zdrojů na internetu a označí obrázky, o kterých je známo, že jsou ošetřovaný.

Není jasné, jak efektivní budou tato řešení z dlouhodobého hlediska. Profesor Dartmouth College a forenzní expert Hany Farid citoval The Verge řekl, že je „extrémně skeptický“, že plány systémů jako Reality Defender budou fungovat smysluplným způsobem. Farid vysvětlil, že jedním z klíčových problémů při odhalování falešného obsahu je to, že média nejsou čistě falešná nebo skutečná. Farid vysvětlil:

„Existuje kontinuum; neuvěřitelně složitý okruh problémů, které je třeba řešit. Některé změny jsou nesmyslné a některé zásadně mění povahu obrazu. Předstírat, že dokážeme vycvičit AI, aby zjistila rozdíl, je neuvěřitelně naivní. A předstírat, že dokážeme crowdsourcing, je ještě důležitější.“

Kromě toho je obtížné zahrnout prvky crowdsourcingu, jako je označování falešných poplachů, protože lidé jsou obvykle velmi špatní v identifikaci falešných obrázků. Lidé často dělají chyby a postrádají jemné detaily, které označují obrázek za falešný. Není také jasné, jak se vypořádat s herci se zlými úmysly, kteří trollují, když nahlásí obsah.

Zdá se pravděpodobné, že aby byly maximálně efektivní, bude třeba nástroje pro odhalování padělků kombinovat s úsilím o digitální gramotnost, které lidi naučí, jak uvažovat o obsahu, se kterým interagují online.