Connect with us

Myslitelé

V roce 2024 budou Deepfakes hlavní proud. Zde je, jak se mohou podniky chránit

mm

Od prezidentských voleb v roce 2016, kdy se obavy kolem dezinformací dostaly do veřejného povědomí, odborníci vyzývají k opatřením proti deepfakům. Důsledky této technologie jsou – a zůstávají – děsivé. Neřízené šíření hyperrealistických syntetických médií představuje hrozbu pro každého – od politiků po běžné lidi. V již tak výbušném prostředí charakterizovaném širokou nedůvěrou slibovaly deepfaky pouze další rozdmýchání plamenů.

Jak se ukázalo, naše obavy byly předčasné. Technické znalosti potřebné k vytvoření deepfakes, spolu s jejich často špatnou kvalitou, znamenaly, že alespoň během posledních dvou prezidentských volebních cyklů zůstaly minimální.

Ale vše se má změnit – již se mění. Během posledních dvou let technologie generativního AI vstoupila do hlavního proudu, radikálně zjednodušila proces vytváření deepfakes pro průměrného spotřebitele. Tyto stejné inovace výrazně zvýšily kvalitu deepfakes, takže v slepém testu by většina lidí nebyla schopna rozeznat upravené video od skutečného.

Tento rok, zejména, jsme začali vidět náznaky toho, jak tato technologie může ovlivnit společnost, pokud proti ní nejsou podniknuta opatření. Například minulý rok AI vygenerovaná fotografie papeže Františka v nezvykle stylovém kabátě se stala virální a mnozí ji považovali za autentickou. Zatímco to může na jedné úrovni vypadat jako neškodná zábava, odhaluje to nebezpečnou sílu těchto deepfakes a jak je těžké zastavit dezinformace, až jednou začnou šířit. Můžeme očekávat, že najdeme méně vtipné – a mnohem nebezpečnější – případy tohoto druhu virální padělání v nadcházejících měsících a letech.

Z tohoto důvodu je nezbytné, aby organizace všech druhů – od médií po finance, vlády a sociální média – přijaly proaktivní postoj k detekci deepfakes a ověření autenticity obsahu. Kultura důvěry prostřednictvím záruk musí být zavedena nyní, předtím, než vlna deepfakes smete naše společné chápání reality.

Pochopení hrozby deepfakes

Než se ponoříme do toho, co organizace mohou udělat, aby bojovaly proti této vlně deepfakes, stojí za to vysvětlit, proč jsou nástroje pro ochranu nezbytné. Typicky ti, kteří se obávají deepfakes, citují jejich potenciální účinek na politiku a důvěru ve společnosti. Tyto potenciální důsledky jsou extrémně důležité a neměly by být zanedbány v žádné konverzaci o deepfakes. Ale jak se ukázalo, vzestup této technologie má potenciálně závažné dopady napříč několika sektory americké ekonomiky.

Vezměme si například pojištění. Právě teď se roční pojistné podvody v Spojených státech vyšplhaly na 308,6 miliard dolarů – číslo zhruba čtvrtinové velikosti celého průmyslu. Současně jsou back-end operace většiny pojišťoven stále více automatizovány, s 70% standardních pojistných událostí, které se předpokládá, že budou beztížné do roku 2025. To znamená, že rozhodnutí jsou stále více učiněna s minimálním lidským zásahem: samoobsluha na front-endu a AI usnadňující automatizaci na back-endu.

Ironicky, sama technologie, která umožnila tento nárůst automatizace – tj. strojové učení a umělá inteligence – zaručila její zneužití špatnými aktéry. Nyní je pro průměrného člověka snadnější manipulovat s pojistnými událostmi – například pomocí generativních programů AI, jako je Dall-E, Midjourney nebo Stable Diffusion, aby auto vypadalo více poškozené, než ve skutečnosti je. Již existují aplikace speciálně pro tento účel, jako je Dude Your Car!, která umožňuje uživatelům uměle vytvářet důlky na fotografiích svých vozidel.

Totéž platí pro oficiální dokumenty, které lze nyní snadno manipulovat – s fakturami, pojistnými posudky a dokonce i podpisy upravenými nebo vynalezenými jako celek. Toto schopnost je problémem nejen pro pojišťovny, ale i napříč ekonomikou. Je to problém pro finanční instituce, které musí ověřit autenticitu širokého spektra dokumentů. Je to problém pro maloobchodníky, kteří mohou obdržet stížnost, že produkt přišel poškozený, doprovázenou upraveným obrázkem.

Podniky prostě nemohou fungovat s tímto stupněm nejistoty. Některý stupeň podvodů je pravděpodobně vždy nevyhnutelný, ale s deepfakes nemluvíme o podvodech na okrajích – mluvíme o potenciální epistemologické katastrofě, ve které podniky nemají žádných jasných prostředků, jak určit pravdu od fikce, a skončí ztrátou miliard dolarů kvůli této záměně.

Boj s ohněm: jak AI může pomoci

Co lze tedy udělat, aby se tomu zabránilo? Možná překvapivě, odpověď leží v samotné technologii, která usnadňuje deepfakes. Pokud chceme zastavit tuto metlu, než získá více hybnosti, musíme bojovat ohněm s ohněm. AI může pomoci generovat deepfakes – ale může také, díky bohu, pomoci je identifikovat automaticky a ve velkém měřítku.

Používáním správných nástrojů AI mohou podniky automaticky určit, zda byla konkrétní fotografie, video nebo dokument upraven. Přinášející desítky různých modelů k úkolu identifikace padělků, AI může automaticky říci podnikům přesně, zda konkrétní fotografie nebo video je podezřelé. Jako nástroje, které podniky již nasazují k automatizaci denních operací, mohou tyto nástroje běžet na pozadí bez zatížení přetíženého personálu nebo odebírání času od důležitých projektů.

Pokud a když je fotografie identifikována jako potenciálně upravená, lidský personál může být upozorněn a může problém vyhodnotit přímo, s pomocí informací poskytnutých AI. Používáním hluboké analytické techniky může říci podnikům proč se domnívá, že fotografie byla pravděpodobně upravena – například ukazující na manuálně upravená metadata, existenci identických obrázků na webu, různé fotografické nepravidelnosti atd.

To vše není míněno jako znehodnocení úžasných pokroků, které jsme viděli v technologiích generativního AI za poslední roky, které skutečně mají užitečné a produktivní aplikace napříč odvětvími. Ale sama síla – neřkuli jednoduchost – této vznikající technologie téměř zaručuje její zneužití těmi, kteří se snaží manipulovat organizacemi, ať už pro osobní zisk nebo pro sítí společenské chaos.

Organizace mohou mít to nejlepší z obou světů: produktivní výhody AI bez nevýhod všudypřítomných deepfakes. Ale to vyžaduje novou míru bdělosti, zejména s ohledem na fakt, že výstupy generativního AI jsou pouze stále přesvědčivější, detailnější a životnější den za dnem. Čím dříve organizace obrátí svou pozornost na tento problém, tím dříve mohou využít plné výhody automatizovaného světa.

Nicos Vekiarides je generální ředitel a spoluzakladatel Attestiv. Strávil posledních 20 let v podnikovém IT a cloudu, jako CEO a podnikatel, uvádějící na trh inovativní nové technologie. Jeho předchozí startup, TwinStrata, inovativní cloudová úložná společnost, kde byl průkopníkem cloud-integrovaného úložiště pro podniky, byl zakoupen společností EMC v roce 2014. Předtím uvedl na trh první zařízení pro virtualizaci úložiště pro StorageApps, společnost později zakoupenou HP.