peň Expert hovorí, že „dokonale skutočné“ DeepFakes tu budú o 6 mesiacov - Unite.AI
Spojte sa s nami

Umelá inteligencia

Expert hovorí, že „dokonale skutočné“ DeepFakes tu budú o 6 mesiacov

mm
Aktualizované on

Pôsobivé, ale kontroverzné DeepFakes, obrázky a video manipulované alebo generované hlbokými neurónovými sieťami, budú pravdepodobne v blízkej budúcnosti pôsobivejšie a kontroverznejšie, tvrdí Hao Li, riaditeľ Vision and Graphics Lab na University of Southern. Kalifornia. Li je odborník na počítačové videnie a DeepFakes a v nedávnom rozhovore s CNBC povedal, že „dokonale skutočné“ Deepfakes pravdepodobne dorazia do pol roka.

Li vysvetlil, že väčšina DeepFakes je skutočným okom stále rozpoznateľná ako falošná a dokonca aj presvedčivejšie DeepFakes stále vyžadujú značné úsilie zo strany tvorcu, aby vyzerali realisticky. Li je však presvedčený, že do šiestich mesiacov sa DeepFakes, ktoré vyzerajú úplne reálne, pravdepodobne objavia, pretože algoritmy budú sofistikovanejšie.

Li si pôvodne myslel, že bude trvať dva až tri roky, kým sa extrémne presvedčivý DeepFakes stane bežnejším, čo predpovedal na nedávnej konferencii usporiadanej na Massachusetts Institute of Technology. Li však revidoval svoju časovú os po odhalení nedávnej čínskej aplikácie Zao a ďalších najnovších novinkách týkajúcich sa technológie DeepFakes. Li vysvetlil CNBC že metódy potrebné na vytvorenie realistických DeepFakes sú viac-menej metódou, ktorá sa v súčasnosti používa a že hlavnou zložkou, ktorá vytvorí realistické DeepFakes, je viac tréningových údajov.

Li a jeho kolegovia výskumníci tvrdo pracovali na technológii detekcie DeepFake a očakávali príchod mimoriadne presvedčivých DeepFake. Li a jeho kolegovia, ako napríklad Hany Farid z University fo California Berkely, experimentovali s najmodernejšími algoritmami DeepFake, aby pochopili, ako funguje technológia, ktorá ich vytvára.

Li vysvetlil pre CNBC:

„Ak chcete byť schopní odhaliť deepfakes, musíte tiež vidieť, aké sú limity. Ak potrebujete vytvoriť rámce AI, ktoré sú schopné odhaliť veci, ktoré sú extrémne skutočné, musia byť vyškolené pomocou týchto typov technológií, takže v niektorých ohľadoch je nemožné ich odhaliť, ak neviete, ako fungujú.“

Li a jeho kolegovia investujú do vytvárania nástrojov na detekciu DeepFakes, aby si uvedomili potenciálne problémy a nebezpečenstvá, ktoré táto technológia predstavuje. Li a kolegovia nie sú ani zďaleka jedinou skupinou výskumníkov AI, ktorí sa zaujímajú o možné účinky DeepFakes a zaujímajú sa o vytvorenie protiopatrení.

Nedávno Facebook začali spoločné partnerstvo s MIT, Microsoftom a Oxfordskou univerzitou vytvorili DeepFake Detection Challenge, ktorej cieľom je vytvoriť nástroje, ktoré možno použiť na zistenie, kedy boli obrázky alebo videá zmenené. Tieto nástroje budú open source a budú ich môcť používať spoločnosti, mediálne organizácie a vlády. Medzitým výskumníci z Inštitútu informačných vied Univerzity v južnej Kalifornii nedávno vytvorili sériu algoritmov, ktoré dokážu rozlíšiť falošné videá s presnosťou približne 96 %.

Li však tiež vysvetlil, že problémom s DeepFakes je spôsob, akým môžu byť zneužité, a nie samotná technológia. Li poznamenal niekoľko legitímnych možných použití technológie DeepFake, a to aj v zábavnom a módnom priemysle.

Používali sa aj techniky DeepFake replikovať výrazy tváre ľudí s tvárami zakrytými obrázkami. Výskumníci použili Generative Adnversail Networks na vytvorenie úplne novej tváre, ktorá mala rovnaký výraz ako subjekt na pôvodnom obrázku. Techniky vyvinuté Nórskou univerzitou pre vedu a technológiu by mohli pomôcť vykresliť výrazy tváre počas rozhovorov s citlivými ľuďmi, ktorí potrebujú súkromie, ako sú napríklad informátori. Niekto iný by mohol nechať svoju tvár použiť ako záskok pre osobu, ktorá potrebuje anonymitu, ale výrazy tváre tejto osoby sa stále dajú prečítať.

So zvyšujúcou sa sofistikovanosťou technológie Deepfake sa budú zvyšovať aj legitímne prípady použitia Deepfake. Nebezpečenstvo sa však tiež zvýši a z tohto dôvodu je práca na odhaľovaní DeepFakes vykonaná Li a ďalšími ešte dôležitejšia.