csonk Mik azok a mélyhamisítások? - Egyesüljetek.AI
Kapcsolatba velünk

AI 101

Mik azok a mélyhamisítások?

mm
korszerűsített on

Ahogy a mélyhamisítások egyre könnyebben elkészíthetők és egyre szaporodnak, egyre nagyobb figyelmet fordítanak rájuk. A mélyhamisítások a mesterséges intelligencia etikájával, a félretájékoztatással, az információk és az internet nyitottságával, valamint a szabályozással kapcsolatos viták fókuszpontjává váltak. Érdemes tájékozódni a mélyhamisításokkal kapcsolatban, és intuitív módon megérteni, hogy mi is a mélyhamisítás. Ez a cikk tisztázza a mélyhamisítás definícióját, megvizsgálja a felhasználási eseteiket, megvitatja, hogyan lehet detektálni a mélyhamisításokat, és megvizsgálja a mélyhamisítások társadalmi következményeit.

Mik azok a mélyhamisítások?

Mielőtt folytatná a mélyhamisítások további megvitatását, hasznos lenne egy kis időt szánni és tisztázni mik is valójában a „mélyhamisítványok”.. Jelentős mennyiségű zűrzavar van a Deepfake kifejezéssel kapcsolatban, és gyakran tévesen alkalmazzák a kifejezést bármilyen hamisított adathordozóra, függetlenül attól, hogy valódi mélyhamisításról van-e szó vagy sem. A Deepfake minősítéshez a szóban forgó hamisított médiát gépi tanulási rendszerrel, pontosabban mély neurális hálózattal kell előállítani.

A mélyhamisítás kulcsfontosságú összetevője a gépi tanulás. A gépi tanulás lehetővé tette, hogy a számítógépek viszonylag gyorsan és egyszerűen automatikusan generáljanak videót és hangot. A mély neurális hálózatokat valós személyről készült felvételeken képezik ki, hogy a hálózat megtanulja, hogyan néznek ki és mozognak az emberek a megcélzott környezeti feltételek között. A betanított hálózatot ezután egy másik személy képeire használják, és további számítógépes grafikai technikákkal egészítik ki annak érdekében, hogy az új személyt az eredeti felvétellel kombinálják. Egy kódoló algoritmust használnak az eredeti és a céllap közötti hasonlóságok meghatározására. Miután az arcok közös jellemzőit elkülönítették, egy második mesterséges intelligencia-algoritmust használnak, amelyet dekódernek neveznek. A dekóder megvizsgálja a kódolt (tömörített) képeket, és az eredeti képek jellemzői alapján rekonstruálja azokat. Két dekódert használnak, az egyiket az eredeti alany arcán, a másikat a célszemély arcán. Annak érdekében, hogy a csere létrejöjjön, az X személy képeire kiképzett dekódolót Y személy képeivel táplálják. Az eredmény az, hogy Y személy arca rekonstruálódik X személy arckifejezései és orientációja alapján.

Jelenleg még mindig elég sok időbe telik egy mélyhamisítás elkészítése. A hamisítvány készítőjének hosszú időt kell töltenie a modell paramétereinek manuális beállításával, mivel a szuboptimális paraméterek észrevehető tökéletlenségekhez és képhibákhoz vezetnek, amelyek feladják a hamisítvány valódi természetét.

Bár gyakran feltételezik, hogy a legtöbb mélyhamisítás egy neurális hálózattal, az a generatív ellenséges hálózat (GAN), sok (talán a legtöbb) manapság létrehozott deephamis nem támaszkodik a GAN-okra. Míg a GAN-ok kiemelkedő szerepet játszottak a korai mélyhamisítások létrehozásában, a legtöbb deepfake videót alternatív módszerekkel készítik, Siwei Lyu, a SUNY Buffalo munkatársa szerint.

A GAN betanítása aránytalanul sok betanítási adatot igényel, és a GAN-ok gyakran sokkal tovább tartanak a kép megjelenítéséhez, mint más képgeneráló technikák. A GAN-ok statikus képek előállítására is jobbak, mint a videók, mivel a GAN-ok nehezen tudják megőrizni a képkockák közötti konzisztenciát. Sokkal gyakoribb, hogy egy kódolót és több dekódert használnak mélyhamisítások létrehozásához.

Mire használhatók a mélyhamisítások?

Az interneten található mélyhamisítványok közül sok pornográf jellegű. A Deeptrace, egy mesterséges intelligencia-cég kutatása szerint a 15,000 szeptemberében készült, mintegy 2019 95 mélyhamisított videóból álló minta körülbelül XNUMX%-a pornográf jellegű volt. Ennek a ténynek a nyugtalanító következménye az, hogy ahogy a technológia egyre könnyebben használható, megszaporodhatnak a hamis bosszúpornó esetei.

Azonban nem minden mély hamisítvány pornográf jellegű. A mélyhamisítási technológiának több törvényes felhasználása is van. A mélyhamisítású audiotechnológia segíthet az embereknek, hogy sugározzák szokásos hangjukat, miután azok betegség vagy sérülés miatt megsérülnek vagy elvesztek. A mélyhamisítások arra is használhatók, hogy elrejtsék az érzékeny, potenciálisan veszélyes helyzetekben lévő emberek arcát, miközben lehetővé teszik ajkaik és arckifejezéseik olvasását. A Deepfake technológia potenciálisan felhasználható az idegen nyelvű filmek szinkronizálásának javítására, a régi és sérült hordozók javítására, sőt új művészeti stílusok létrehozására is.

Nem videó mélyhamisítások

Míg a legtöbb embernek a hamis videók jutnak eszébe a „deepfake” kifejezés hallatán, a hamis videók korántsem az egyetlen fajta hamis média, amelyet deepfake technológiával állítanak elő. A Deepfake technológiát fotó- és hanghamisítványok készítésére is használják. Mint korábban említettük, a GAN-okat gyakran használják hamis képek generálására. Úgy gondolják, hogy sok olyan hamis LinkedIn- és Facebook-profil történt, amelyekben mélyhamisítási algoritmusokkal generált profilképek vannak.

Lehetőség van hang mélyhamisítások létrehozására is. A mély neurális hálózatokat arra képezték ki, hogy különböző emberek hangklónjait/hangszíneit állítsák elő, beleértve a hírességeket és politikusokat is. Az audio Deepfake egyik híres példája az, amikor az AI cég, a Dessa mesterséges intelligencia modellt használtak, nem mesterséges intelligencia algoritmusok támogatják, hogy újrateremtsék a podcast műsorvezetőjének, Joe Rogannak a hangját.

Hogyan lehet észrevenni a mélyhamisításokat

Ahogy a mélyhamisítások egyre kifinomultabbá válnak, egyre keményebb lesz megkülönböztetni őket az eredeti médiától. Jelenleg vannak néhány árulkodó jel Az emberek rákereshetnek, hogy megbizonyosodhassanak arról, hogy egy videó potenciálisan mélyhamisítás, például rossz ajkak szinkronizálása, természetellenes mozgás, az arc széle körüli villódzás és a finom részletek, például haj, fogak vagy tükröződések elvetemedése. A mélyhamisítás egyéb lehetséges jelei közé tartozik a videó gyengébb minőségű részei és a szemek szabálytalan pislogása.

Bár ezek a jelek jelenleg segíthetnek a mélyhamisítás észlelésében, a mélyhamisítási technológia javítja a megbízható mélyhamisítás-észlelés egyetlen lehetőségét a más típusú mesterséges intelligencia, amely képes megkülönböztetni a hamisítványokat a valódi médiától.

A mesterséges intelligenciával foglalkozó cégek, köztük számos nagy technológiai vállalat, a mélyhamisítások kimutatásának módszereit kutatják. Tavaly decemberben elindult egy mélyhamisítás-észlelési kihívás, amelyet három technológiai óriás támogat: az Amazon, a Facebook és a Microsoft. A világ minden tájáról származó kutatócsoportok a mélyhamisítások észlelésének módszerein dolgoztak, versengve a legjobb észlelési módszerek kidolgozásáért. Más kutatócsoportok, például a Google és a Jigsaw egyesített kutatóinak csoportja, egyfajta „arc-kriminalisztika”-on dolgoznak, amely képes észlelni a módosított videókat, nyílt forráskódúvá teszik adatkészleteiket és mások bátorítása mélyhamisítás-észlelési módszerek kidolgozására. A fent említett Dessa a mélyhamisítás-észlelési technikák finomításán dolgozott, és igyekezett biztosítani, hogy az észlelési modellek a vadonban (kint az interneten) talált mélyhamisítású videókon működjenek, ne csak előre összeállított képzési és tesztelési adatkészleteken, mint például a nyílt forráskódú adatkészlet. Google biztosította.

Vannak még egyéb stratégiák amelyeket a mélyhamisítások elterjedésének leküzdésére vizsgálnak. Például az egyik stratégia a videók más információforrásokkal való összhangjának ellenőrzése. Keresés végezhető az esetlegesen más szemszögből felvett eseményekről készült videóra, vagy ellenőrizhető a videó háttérrészletei (például időjárási minták és helyszínek) az egyenetlenségekért. Ezen túl, egy Blockchain online főkönyvi rendszer regisztrálni tudják a videókat az eredeti létrehozásukkor, megtartva eredeti hangjukat és képeiket, hogy a származékos videókat mindig ellenőrizni lehessen manipuláció szempontjából.

Végső soron fontos, hogy megbízható módszereket hozzanak létre a mélyhamisítások észlelésére, és hogy ezek az észlelési módszerek lépést tartsanak a mélyhamisítási technológia legújabb vívmányaival. Bár nehéz pontosan tudni, hogy a mélyhamisítások milyen hatással lesznek, ha nincsenek megbízható módszerek a mélyhamisítások (és a hamis média egyéb formáinak) kimutatására, a félretájékoztatás potenciálisan elterjedhet, és leronthatja az emberek társadalomba és intézményekbe vetett bizalmát.

A mélyhamisítás következményei

Milyen veszélyekkel jár, ha hagyjuk, hogy a mély hamisítványok ellenőrizetlenül elterjedjenek?

Az egyik legnagyobb probléma, amit a mélyhamisítások okoznak jelenleg, a nem konszenzusos pornográfia, amelyet az emberek arcának pornográf videókkal és képekkel való kombinálásával hoznak létre. A mesterséges intelligencia etikusai attól tartanak, hogy a mélyhamisítások több hasznot húznak majd hamis bosszúpornó létrehozásában. Ezen túlmenően, a mélyhamisítások felhasználhatók bárki megfélemlítésére és jó hírnevének rontására, mivel ellentmondásos és kompromittáló forgatókönyvekbe lehet őket helyezni.

A cégek és a kiberbiztonsági szakértők aggodalmukat fejezték ki amiatt, hogy a mélyhamisításokat csalások, csalások és zsarolások elősegítésére használják. Állítólag mélyhamisítás történt szokták meggyőzni az alkalmazottakat egy cégtől, hogy pénzt utaljon át csalóknak

Lehetséges, hogy a mélyhamisításoknak még a fent felsoroltakon túl is lehetnek káros hatásai. A mélyhamisítások potenciálisan alááshatják az emberek médiába vetett bizalmát, és megnehezíthetik az emberek számára, hogy különbséget tegyenek a valódi és az álhírek között. Ha az interneten sok videó hamis, a kormányok, vállalatok és más szervezetek könnyebben kétségbe vonhatják a jogos vitákat és az etikátlan gyakorlatokat.

Ha kormányokról van szó, a mélyhamisítások akár a demokrácia működését is veszélyeztethetik. A demokrácia megköveteli, hogy a polgárok megbízható információk alapján megalapozott döntéseket tudjanak hozni a politikusokról. A félretájékoztatás aláássa a demokratikus folyamatokat. Például Gabon elnöke, Ali Bongo megjelent egy videóban, amely megpróbálta megnyugtatni a gaboni polgárokat. Az elnökről azt feltételezték, hogy hosszú ideig rosszul van, és hirtelen megjelent egy valószínűleg hamis videó elindította a puccskísérletet. Donald Trump elnök azt állította, hogy egy hangfelvételen arról dicsekszik, hogy nőket megragad a nemi szervénél hamis volt, annak ellenére, hogy „öltözőbeszédként” is leírja. András herceg is azt állította, hogy az Emily Maitilis ügyvédje által biztosított kép hamis, bár az ügyvéd ragaszkodott a hitelességéhez.

Végső soron, bár a mélyhamisítási technológiának vannak törvényes felhasználási területei, számos lehetséges kár származhat a technológiával való visszaélésből. Emiatt rendkívül fontos a média hitelességének meghatározására szolgáló módszerek létrehozása és karbantartása.

Blogger és programozó szakterületekkel Gépi tanulás és a Deep Learning témákat. Daniel abban reménykedik, hogy segíthet másoknak az AI erejét társadalmi javára használni.