Connect with us

V roce 2024 budou deepfakes mainstream. Zde je, jak se mohou podniky chránit

Myslitelé

V roce 2024 budou deepfakes mainstream. Zde je, jak se mohou podniky chránit

mm

Od prezidentských voleb v roce 2016, kdy se obavy kolem dezinformací dostaly do veřejného povědomí, odborníci vyzývají k opatřením proti deepfakům. Důsledky této technologie jsou a zůstávají děsivé. Nekontrolovaná šíření hyperrealistických syntetických médií představuje hrozbu pro každého – od politiků po běžné lidi. V již tak nestabilním prostředí charakterizovaném širokou nedůvěrou slibovaly deepfaky pouze další rozdmýchání plamenů.

Jak se ukázalo, naše obavy byly předčasné. Technické znalosti potřebné k vytvoření deepfakes, spolu s jejich často špatnou kvalitou, znamenaly, že alespoň pro poslední dva prezidentské volební cykly zůstaly minimální obavou.

Ale vše se má změnit – již se mění. Za posledních dva roky se technologie generativního AI dostala do mainstreamu, radikálně zjednodušila proces vytváření deepfakes pro průměrného spotřebitele. Tyto stejné inovace výrazně zvýšily kvalitu deepfakes, takže v slepém testu by většina lidí nebyla schopna rozlišit upravené video od skutečného.

Tento rok, zejména, jsme začali vidět náznaky toho, jak tato technologie může ovlivnit společnost, pokud nejsou učiněny úsilí, aby se jí zabránilo. Například loni AI vygenerovaná fotografie papeže Františka v nezvykle stylovém kabátě se stala virální a mnozí ji považovali za autentickou. Zatímco to může na jedné úrovni vypadat jako neškodná zábava, odhaluje to nebezpečnou sílu těchto deepfakes a jak je těžké zastavit dezinformace, jakmile se začnou šířit. Můžeme očekávat, že najdeme méně vtipné – a mnohem nebezpečnější – případy tohoto druhu virální padělané zábavy v nadcházejících měsících a letech.

Z tohoto důvodu je nezbytné, aby organizace všech druhů – od médií po finance, vlády a sociální média – přijaly proaktivní postoj k detekci deepfakes a ověření autenticity obsahu. Kultura důvěry prostřednictvím ochranných opatření musí být zavedena nyní, předtím, než vlna deepfakes smete naše společné chápání reality.

Pochopení hrozby deepfakes

Než se ponoříme do toho, co organizace mohou udělat, aby bojovaly proti této vlně deepfakes, stojí za to vysvětlit, proč jsou nástroje pro ochranu nezbytné. Obvykle ti, kteří se obávají deepfakes, citují jejich potenciální dopad na politiku a důvěru ve společnosti. Tyto potenciální důsledky jsou extrémně důležité a neměly by být zanedbány v žádné diskusi o deepfakes. Ale jak se ukázalo, vzestup této technologie má potenciálně katastrofální účinky napříč několika sektory americké ekonomiky.

Vezměme si například pojišťovnictví. V současné době činí roční pojistné podvody v Spojených státech 308,6 miliardy dolarů – číslo, které je zhruba čtvrtinou celého odvětví. Současně jsou back-end operace většiny pojišťoven stále více automatizovány, s 70% standardních nároků, které se předpokládá, že budou bezdotykové do roku 2025. To znamená, že rozhodnutí jsou stále více učiněna s minimálním zásahem člověka: samoobsluha na přední straně a automatizace pomocí AI na zadní straně.

Ironicky, technologie, která umožnila tento nárůst automatizace – tj. strojové učení a umělá inteligence – zajišťuje její zneužití špatnými aktéry. Nyní je pro průměrného člověka snadnější manipulovat nároky – například pomocí generativních programů AI, jako je Dall-E, Midjourney nebo Stable Diffusion, aby auto vypadalo více poškozené, než ve skutečnosti je. Už existují aplikace speciálně pro tento účel, jako je Dude Your Car!, která umožňuje uživatelům uměle vytvářet díry v fotografiích svých vozidel.

Totéž platí pro oficiální dokumenty, které lze nyní snadno manipulovat – s fakturami, pojistnými posudky a dokonce i podpisy upravenými nebo vynalezenými jako celek. Tato schopnost je problémem nejen pro pojišťovny, ale také napříč ekonomikou. Je to problém pro finanční instituce, které musí ověřit autenticitu širokého spektra dokumentů. Je to problém pro maloobchodníky, kteří mohou obdržet stížnost, že produkt dorazil poškozený, doprovázenou upravenou fotografií.

Podniky prostě nemohou fungovat s tímto stupněm nejistoty. Některý stupeň podvodu je pravděpodobně vždy nevyhnutelný, ale s deepfakes nemluvíme o podvodech na okrajích – mluvíme o potenciální epistemologické katastrofě, ve které podniky nemají žádný jasný způsob, jak určit pravdu od fikce, a skončí tím, že ztratí miliardy dolarů na této záměně.

Boj proti ohni ohněm: jak AI může pomoci

Co tedy lze udělat, aby se tomu zabránilo? Možná překvapivě, odpověď leží v samotné technologii, která usnadňuje deepfakes. Pokud chceme zastavit tuto pohromu, než získá více hybnosti, musíme bojovat ohněm proti ohni. AI může pomoci generovat deepfakes – ale může také, díky bohu, pomoci je automaticky identifikovat ve velkém měřítku.

Používáním správných nástrojů AI mohou podniky automaticky určit, zda byla určitá fotografie, video nebo dokument upraven. Přinášející desítky různých modelů k úkolu identifikace padělků, AI může automaticky říci podnikům přesně, zda je určitá fotografie nebo video podezřelé. Jako nástroje, které podniky již nasazují k automatizaci denních operací, mohou tyto nástroje běžet na pozadí bez zatížení přetíženého personálu nebo odebírání času od důležitých projektů.

Pokud a když je fotografie identifikována jako potenciálně upravená, lidský personál může být následně upozorněn a může problém vyhodnotit přímo, za pomoci informací poskytnutých AI. Používáním hluboké analýzy může říci podnikům proč se domnívá, že fotografie byla pravděpodobně upravena – ukazuje například na manuálně upravená metadata, existenci identických obrázků na webu, různé fotografické nepravidelnosti atd.

Nic z toho nesnižuje úžasné pokroky, které jsme viděli v technologii generativního AI za posledních několik let, které skutečně mají užitečné a produktivní aplikace napříč odvětvími. Ale sama síla – neřkuli jednoduchost – této vznikající technologie téměř zajišťuje její zneužití těmi, kteří se snaží manipulovat organizacemi, ať už pro osobní zisk nebo za účelem sítění společenské chaosu.

Organizace mohou mít ty nejlepší ze dvou světů: produktivní výhody AI bez nevýhod všudypřítomných deepfakes. Ale to vyžaduje novou míru bdělosti, zejména s ohledem na fakt, že výstupy generativního AI jsou pouze stále přesvědčivější, detailnější a realističtější dnem.

Nicos Vekiarides je generální ředitel a spoluzakladatel Attestiv. Strávil posledních 20 let v podnikovém IT a cloudu, jako CEO a podnikatel, uvádějící na trh inovativní nové technologie. Jeho předchozí startup, TwinStrata, inovativní cloudová úložná společnost, kde byl průkopníkem cloud-integrovaného úložiště pro podniky, byl zakoupen společností EMC v roce 2014. Předtím uvedl na trh první zařízení pro virtualizaci úložiště pro StorageApps, společnost později zakoupenou HP.