stub Kas yra Deepfake? - Vienykitės.AI
Susisiekti su mumis

AI 101 m

Kas yra Deepfake?

mm
Atnaujinta on

Kadangi Deepfake daromi vis lengviau ir produktyvesni, jiems skiriama daugiau dėmesio. Deepfake tapo diskusijų, susijusių su AI etika, dezinformacija, informacijos ir interneto atvirumu bei reguliavimu, centru. Verta būti informuotam apie gilius klastojimus ir intuityviai suprasti, kas yra giliosios klastotės. Šiame straipsnyje bus paaiškintas giliųjų klastotės apibrėžimas, išnagrinėti jų naudojimo atvejai, aptarta, kaip galima aptikti giliųjų klastotes, ir išnagrinėti gilių klastotės pasekmes visuomenei.

Kas yra Deepfakes?

Prieš toliau aptariant gilius klastojimus, būtų naudinga skirti šiek tiek laiko ir išsiaiškinti kas iš tikrųjų yra „deepfake“.. Yra daug painiavos dėl termino „Deepfake“ ir dažnai šis terminas neteisingai taikomas bet kokiai suklastotai laikmenai, neatsižvelgiant į tai, ar tai tikras „deepfake“, ar ne. Kad atitinkama suklastota laikmena būtų pripažinta Deepfake, ji turi būti sugeneruota naudojant mašininio mokymosi sistemą, ypač gilųjį neuroninį tinklą.

Pagrindinis giliųjų padirbinėjimo komponentas yra mašininis mokymasis. Mašininis mokymasis leido kompiuteriams palyginti greitai ir lengvai automatiškai generuoti vaizdą ir garsą. Gilieji neuroniniai tinklai mokomi realaus žmogaus filmuotame filme, kad tinklas sužinotų, kaip žmonės atrodo ir juda tikslinėmis aplinkos sąlygomis. Tada apmokytas tinklas naudojamas kito asmens atvaizdams ir papildytas papildomais kompiuterinės grafikos metodais, siekiant sujungti naują asmenį su originalia filmuota medžiaga. Kodavimo algoritmas naudojamas nustatyti originalaus veido ir tikslinio veido panašumus. Išskyrus bendrus veidų bruožus, naudojamas antrasis AI algoritmas, vadinamas dekoderiu. Dekoderis tiria užkoduotus (suspaustus) vaizdus ir atkuria juos pagal originalių vaizdų ypatybes. Naudojami du dekoderiai – vienas ant pradinio subjekto veido, o antrasis – ant tikslinio asmens veido. Kad būtų atliktas apsikeitimas, dekoderis, apmokytas pagal asmens X atvaizdus, ​​tiekiamas asmens Y vaizdais. Rezultatas – asmens Y veidas atkuria asmens X veido išraiškas ir orientaciją.

Šiuo metu dar reikia nemažai laiko, kad būtų sukurtas gilus padirbinėjimas. Padirbinio kūrėjas turi praleisti ilgą laiką rankiniu būdu koreguodamas modelio parametrus, nes neoptimalūs parametrai lems pastebimus netobulumus ir vaizdo nesklandumus, kurie išduoda tikrąją padirbinio prigimtį.

Nors dažnai manoma, kad dauguma giluminių padirbinių yra daromi naudojant neuroninį tinklą, vadinamą a generatyvus priešininkų tinklas (GAN), daugelis (galbūt dauguma) šiomis dienomis sukurtų gilių klastočių nepasikliauja GAN. Pasak Siwei Lyu iš SUNY Buffalo, nors GAN vaidino svarbų vaidmenį kuriant ankstyvuosius gilius klastojimus, dauguma gilių padirbtų vaizdo įrašų yra kuriami naudojant alternatyvius metodus.

Norint parengti GAN, reikia neproporcingai daug mokymo duomenų, o GAN vaizdui pateikti dažnai užtrunka daug ilgiau, palyginti su kitais vaizdo generavimo būdais. GAN taip pat geriau generuoti statinius vaizdus nei vaizdo įrašus, nes GAN sunku išlaikyti vienodumą nuo vieno kadro iki kadro. Daug dažniau naudojamas koduotuvas ir keli dekoderiai, kad būtų sukurtos gilios klastotės.

Kam naudojami „Deepfake“?

Daugelis internete rastų padirbinių yra pornografinio pobūdžio. Remiantis AI įmonės „Deeptrace“ atliktais tyrimais, iš maždaug 15,000 2019 padirbtų vaizdo įrašų, darytų 95 m. rugsėjį, maždaug XNUMX % jų buvo pornografinio pobūdžio. Nerimą kelianti šio fakto pasekmė yra ta, kad kai technologija tampa vis lengviau naudojama, gali padaugėti netikros keršto pornografijos atvejų.

Tačiau ne visos klastotės yra pornografinio pobūdžio. Yra daugiau teisėtų giliųjų klastotės technologijų naudojimo būdų. Garso padirbinėjimo technologija gali padėti žmonėms transliuoti įprastus balsus, kai jie yra sugadinti arba prarasti dėl ligos ar sužalojimo. Deepfakes taip pat gali būti naudojamas paslėpti žmonių, kurie yra jautriose, potencialiai pavojingose ​​situacijose, veidus, tuo pačiu leidžiant perskaityti jų lūpas ir išraiškas. Deepfake technologija gali būti naudojama siekiant pagerinti užsienio kalbų filmų dubliavimą, padėti taisyti seną ir pažeistą laikmeną ir netgi sukurti naujus meno stilius.

Ne vaizdo įrašų gilieji klastotės

Nors dauguma žmonių galvoja apie netikrus vaizdo įrašus, kai išgirsta terminą „deepfake“, netikri vaizdo įrašai jokiu būdu nėra vienintelė netikra laikmena, sukurta naudojant „deepfake“ technologiją. Deepfake technologija taip pat naudojama kuriant nuotraukų ir garso padirbinius. Kaip minėta anksčiau, GAN dažnai naudojami netikriems vaizdams generuoti. Manoma, kad buvo daug netikrų „LinkedIn“ ir „Facebook“ profilių, kuriuose profilio vaizdai buvo sukurti naudojant giliai padirbtus algoritmus.

Taip pat galima sukurti garso padirbinius. Gilieji neuroniniai tinklai yra išmokyti kurti skirtingų žmonių, įskaitant įžymybes ir politikus, balso klonus / balso skinas. Vienas garsus garso Deepfake pavyzdys yra tai, kai dirbtinio intelekto įmonė Dessa naudojo AI modelį, palaikomas ne AI algoritmų, kad būtų atkurtas podcast'o vedėjo Joe Rogan balsas.

Kaip atpažinti gilius klastotes

Deepfake'ams vis labiau tobulėjant, juos atskirti nuo originalių laikmenų bus vis sunkiau. Šiuo metu yra keli įspėjamieji ženklai žmonės gali ieškoti, kad įsitikintų, ar vaizdo įrašas gali būti netikras, pvz., prastas lūpų sinchronizavimas, nenatūralus judesys, mirgėjimas aplink veido kraštą ir smulkių detalių, pvz., plaukų, dantų ar atspindžių, deformacija. Kiti galimi klastotės požymiai yra prastesnės kokybės to paties vaizdo įrašo dalys ir nereguliarus mirksėjimas akimis.

Nors šie ženklai šiuo metu gali padėti pastebėti padirbtą klastotę, kadangi giliųjų klastotės technologija pagerina vienintelę galimybę patikimai aptikti klastotes, gali būti kitų tipų dirbtinis intelektas, išmokytas atskirti klastotes nuo tikros laikmenos.

Dirbtinio intelekto įmonės, įskaitant daugelį didelių technologijų įmonių, tiria giliųjų klastotės aptikimo metodus. Praėjusį gruodį buvo pradėtas giliųjų klastotės aptikimo iššūkis, kurį palaikė trys technologijų milžinai: „Amazon“, „Facebook“ ir „Microsoft“. Mokslininkų grupės iš viso pasaulio dirbo su giliųjų klastotės aptikimo metodais, konkuruodamos, kad sukurtų geriausius aptikimo metodus. Kitos tyrėjų grupės, pvz., „Google“ ir „Jigsaw“ tyrėjų grupė, dirba su „veido kriminalistika“, kuri gali aptikti pakeistus vaizdo įrašus, padaryti savo duomenų rinkinius atviro kodo ir skatinti kitus kurti giliųjų klastotės aptikimo metodus. Aukščiau minėta Dessa patobulino giliųjų klastotės aptikimo metodus, siekdama užtikrinti, kad aptikimo modeliai veiktų naudojant gamtoje (internete) randamus giliai padirbtus vaizdo įrašus, o ne tik iš anksto sudarytus mokymo ir testavimo duomenų rinkinius, tokius kaip atvirojo kodo duomenų rinkinys. Google pateikė.

Taip pat yra kitos strategijos kurie yra tiriami siekiant kovoti su giliųjų klastotės plitimu. Pavyzdžiui, viena strategija yra patikrinti, ar vaizdo įrašai atitinka kitus informacijos šaltinius. Galima ieškoti vaizdo įrašų apie įvykius, galimai nufilmuotus kitais kampais, arba galima patikrinti vaizdo įrašo fono informaciją (pvz., orų modelius ir vietas), ar nėra neatitikimų. Be to, Blockchain internetinė knygos sistema galėtų užregistruoti vaizdo įrašus, kai jie iš pradžių buvo sukurti, laikydami originalius garso ir vaizdo įrašus, kad visada būtų galima patikrinti, ar išvestiniai vaizdo įrašai nėra manipuliuojami.

Galiausiai svarbu, kad būtų sukurti patikimi giliųjų klastotės aptikimo metodai ir kad šie aptikimo metodai neatsiliktų nuo naujausių giliųjų klastotės technologijų pažangos. Nors sunku tiksliai žinoti, koks bus giliųjų klastotės poveikis, jei nėra patikimų giliųjų klastotės (ir kitų formų netikros žiniasklaidos) aptikimo metodų, dezinformacija gali plisti ir pabloginti žmonių pasitikėjimą visuomene ir institucijomis.

Deepfakes pasekmės

Kokie pavojai kyla, kai leidžiame nekontroliuojamai daugintis gilioms klastotėms?

Viena didžiausių problemų, kurias šiuo metu sukuria giliosios klastotės, yra nesuderinama pornografija, sukurta derinant žmonių veidus su pornografiniais vaizdo įrašais ir vaizdais. Dirbtinio intelekto etikai nerimauja, kad gilios klastotės bus labiau naudojamos kuriant netikrą keršto pornografiją. Be to, giliosios klastotės gali būti naudojamos tyčiotis ir sugadinti beveik bet kurio žmogaus reputaciją, nes jas galima panaudoti nukreipiant žmones į prieštaringus ir kompromituojančius scenarijus.

Įmonės ir kibernetinio saugumo specialistai išreiškė susirūpinimą dėl gilių klastočių naudojimo siekiant palengvinti sukčiavimą, sukčiavimą ir turto prievartavimą. Tariamai buvo padirbtas garsas naudojamas įtikinti darbuotojus įmonės pervesti pinigus sukčiams

Gali būti, kad padirbiniai gali turėti žalingo poveikio, net ir aukščiau išvardytų. Gilūs klastotės gali apskritai sumenkinti žmonių pasitikėjimą žiniasklaida, todėl žmonėms bus sunku atskirti tikras naujienas nuo netikrų. Jei daugelis vaizdo įrašų internete yra netikri, vyriausybėms, įmonėms ir kitiems subjektams tampa lengviau suabejoti dėl teisėtų ginčų ir neetiškos praktikos.

Kalbant apie vyriausybes, klastotės gali net kelti grėsmę demokratijos veikimui. Demokratija reikalauja, kad piliečiai, remdamiesi patikima informacija, galėtų priimti pagrįstus sprendimus dėl politikų. Dezinformacija kenkia demokratiniams procesams. Pavyzdžiui, Gabono prezidentas Ali Bongo pasirodė vaizdo įraše, bandydamas nuraminti Gabono piliečius. Buvo manoma, kad prezidentas ilgą laiką buvo nesveikas ir jo netikėtas pasirodymas tikėtinas netikras vaizdo įrašas paskatino bandymą perversmą. Prezidentas Donaldas Trumpas tvirtino, kad garso įrašas, kuriame jis giriasi griebęs moteris už lytinių organų buvo netikras, nepaisant to, kad tai taip pat apibūdinama kaip „pokalbiai apie persirengimo kambarį“. Princas Andrew taip pat teigė, kad Emily Maitilio advokato pateiktas vaizdas buvo netikras, nors advokatas reikalavo jos autentiškumo.

Galiausiai, nors ir yra teisėtas giliųjų klastotės technologijų naudojimas, yra daug galimos žalos, kuri gali kilti dėl netinkamo tos technologijos naudojimo. Dėl šios priežasties labai svarbu, kad būtų sukurti ir išlaikyti žiniasklaidos autentiškumo nustatymo metodai.