stubs Kas ir dziļi viltojumi? - Apvienojieties.AI
Savienoties ar mums

AI 101

Kas ir dziļi viltojumi?

mm
Atjaunināts on

Tā kā dziļo viltojumu izgatavošana kļūst arvien vieglāka un ražīgāka, tiem tiek pievērsta lielāka uzmanība. Deepfakes ir kļuvušas par galveno diskusiju par AI ētiku, dezinformāciju, informācijas un interneta atklātību un regulējumu. Ir vērts būt informētam par dziļajiem viltojumiem un intuitīvi izprast, kas ir dziļi viltojumi. Šajā rakstā tiks izskaidrota dziļo viltojumu definīcija, izpētīti to lietošanas gadījumi, apspriests, kā var atklāt dziļās viltojumus, un izpētīta dziļo viltojumu ietekme uz sabiedrību.

Kas ir dziļi viltojumi?

Pirms turpināt apspriest dziļos viltojumus, būtu lietderīgi veltīt laiku un precizēt kas patiesībā ir “dziļi viltojumi”.. Pastāv liela neskaidrība saistībā ar terminu Deepfake, un bieži vien šis termins tiek nepareizi lietots jebkuram viltotam datu nesējam neatkarīgi no tā, vai tas ir īsts viltojums. Lai attiecīgais viltotais datu nesējs tiktu kvalificēts kā dziļais viltojums, tas ir jāģenerē, izmantojot mašīnmācīšanās sistēmu, jo īpaši dziļo neironu tīklu.

Galvenā dziļo viltojumu sastāvdaļa ir mašīnmācīšanās. Mašīnmācība ir ļāvusi datoriem salīdzinoši ātri un vienkārši automātiski ģenerēt video un audio. Dziļie neironu tīkli tiek apmācīti, izmantojot reālas personas kadrus, lai tīkls uzzinātu, kā cilvēki izskatās un pārvietojas mērķa vides apstākļos. Apmācītais tīkls pēc tam tiek izmantots citas personas attēliem un tiek papildināts ar papildu datorgrafikas metodēm, lai apvienotu jauno personu ar oriģinālo kadru. Lai noteiktu līdzības starp sākotnējo seju un mērķa seju, tiek izmantots kodētāja algoritms. Kad seju kopīgās iezīmes ir izolētas, tiek izmantots otrs AI algoritms, ko sauc par dekodētāju. Dekodētājs pārbauda kodētos (saspiestos) attēlus un rekonstruē tos, pamatojoties uz oriģinālo attēlu iezīmēm. Tiek izmantoti divi dekoderi, viens uz sākotnējā subjekta sejas un otrs uz mērķa personas sejas. Lai veiktu mijmaiņas darījumus, dekodētājam, kas ir apmācīts personas X attēliem, tiek ievadīti personas Y attēli. Rezultātā personas Y seja tiek rekonstruēta pār personas X sejas izteiksmēm un orientāciju.

Pašlaik dziļā viltojuma izveidei joprojām ir nepieciešams diezgan daudz laika. Viltojuma radītājam ir jāpavada ilgs laiks, manuāli pielāgojot modeļa parametrus, jo neoptimālie parametri novedīs pie pamanāmām nepilnībām un attēla kļūmēm, kas atklāj viltus patieso būtību.

Lai gan bieži tiek pieņemts, ka lielākā daļa dziļo viltojumu tiek veikti, izmantojot neironu tīklu, ko sauc par a ģeneratīvais pretrunu tīkls (GAN), daudzi (iespējams, lielākā daļa) mūsdienās izveidoto dziļo viltojumu nepaļaujas uz GAN. Lai gan GAN bija nozīmīga loma agrīno dziļo viltojumu izveidē, lielākā daļa dziļo viltojumu videoklipu tiek veidoti, izmantojot alternatīvas metodes, norāda Siwei Lyu no SUNY Buffalo.

Lai apmācītu GAN, ir nepieciešams nesamērīgi liels apmācības datu apjoms, un GAN attēla renderēšana bieži prasa daudz ilgāku laiku, salīdzinot ar citām attēlu ģenerēšanas metodēm. GAN ir arī labāki statisku attēlu ģenerēšanai nekā video, jo GAN ir grūtības saglabāt konsekvenci no kadra uz kadru. Daudz biežāk tiek izmantots kodētājs un vairāki dekoderi, lai izveidotu dziļo viltojumu.

Kam tiek izmantoti dziļi viltojumi?

Daudzi no tiešsaistē atrastajiem viltojumiem ir pornogrāfiski. Saskaņā ar AI uzņēmuma Deeptrace veikto pētījumu no aptuveni 15,000 2019 dziļi viltotu video, kas uzņemti 95. gada septembrī, aptuveni XNUMX% no tiem bija pornogrāfiska rakstura. Šī fakta satraucošā ietekme ir tāda, ka, tehnoloģiju kļūstot vieglāk lietojamai, var pieaugt viltus atriebības pornogrāfijas gadījumi.

Tomēr ne visi dziļie viltojumi ir pornogrāfiski. Deepfake tehnoloģijai ir vairāk likumīgu lietojumu. Audio dziļās viltošanas tehnoloģija varētu palīdzēt cilvēkiem pārraidīt savas parastās balsis pēc tam, kad tās ir bojātas vai pazaudētas slimības vai traumas dēļ. Deepfakes var izmantot arī to cilvēku sejas slēpšanai, kuri atrodas jutīgās, potenciāli bīstamās situācijās, vienlaikus ļaujot nolasīt viņu lūpas un sejas izteiksmes. Deepfake tehnoloģiju, iespējams, var izmantot, lai uzlabotu svešvalodu filmu dublēšanu, palīdzētu salabot vecus un bojātus nesējus un pat radītu jaunus mākslas stilus.

Dziļās viltošanas, kas nav video

Lai gan lielākā daļa cilvēku domā par viltotiem videoklipiem, dzirdot terminu “deepfake”, viltotie videoklipi nekādā ziņā nav vienīgais viltus multivides veids, kas tiek ražots, izmantojot dziļo viltojumu tehnoloģiju. Deepfake tehnoloģija tiek izmantota, lai izveidotu arī fotoattēlu un audio viltojumus. Kā minēts iepriekš, GAN bieži izmanto viltotu attēlu ģenerēšanai. Tiek uzskatīts, ka ir bijuši daudzi viltus LinkedIn un Facebook profilu gadījumi, kuros profila attēli ir ģenerēti ar dziļi viltotiem algoritmiem.

Ir iespējams izveidot arī audio dziļos viltojumus. Dziļie neironu tīkli ir apmācīti veidot dažādu cilvēku, tostarp slavenību un politiķu, balss klonus/balss apvalkus. Viens slavens audio Deepfake piemērs ir AI uzņēmums Dessa izmantoja AI modeli, atbalsta algoritmi, kas nav AI, lai atjaunotu aplādes vadītāja Džo Rogana balsi.

Kā pamanīt dziļos viltojumus

Tā kā dziļi viltojumi kļūst arvien sarežģītāki, to atšķiršana no oriģinālajiem medijiem kļūs arvien grūtāka. Šobrīd tādas ir dažas pazīmes cilvēki var meklēt, lai noskaidrotu, vai videoklips ir potenciāli dziļš viltojums, piemēram, slikta lūpu sinhronizācija, nedabiskas kustības, mirgošana ap sejas malu un smalku detaļu, piemēram, matu, zobu vai atspulgu, deformācija. Citas iespējamās dziļās viltošanas pazīmes ir viena un tā paša video zemākas kvalitātes daļas un neregulāra acu mirkšķināšana.

Lai gan šīs pazīmes šobrīd var palīdzēt pamanīt dziļo viltojumu, jo dziļo viltojumu tehnoloģija uzlabo vienīgo iespēju uzticamai dziļo viltojumu noteikšanai, iespējams, ir citi mākslīgā intelekta veidi, kas apmācīti atšķirt viltojumus no reāliem datu nesējiem.

Mākslīgā intelekta uzņēmumi, tostarp daudzi lielie tehnoloģiju uzņēmumi, pēta dziļo viltojumu noteikšanas metodes. Pagājušā gada decembrī tika uzsākts dziļās viltojumu noteikšanas izaicinājums, ko atbalstīja trīs tehnoloģiju giganti: Amazon, Facebook un Microsoft. Pētnieku grupas no visas pasaules strādāja pie dziļo viltojumu noteikšanas metodēm, sacenšoties, lai izstrādātu labākās noteikšanas metodes. Citas pētnieku grupas, piemēram, apvienoto pētnieku grupa no Google un Jigsaw, strādā pie sava veida "sejas kriminālistikas", kas var noteikt video, kas ir mainīti, padarot savas datu kopas atvērtā koda un mudinot citus izstrādāt dziļās viltojumu noteikšanas metodes. Iepriekš minētā Dessa ir strādājusi pie dziļo viltojumu noteikšanas metožu pilnveidošanas, cenšoties nodrošināt, lai noteikšanas modeļi darbotos uz savvaļā atrastiem dziļi viltotiem videoklipiem (internetā), nevis tikai uz iepriekš sastādītām apmācības un testēšanas datu kopām, piemēram, atvērtā koda datu kopu. Google nodrošināja.

Ir arī citas stratēģijas kas tiek izmeklēti, lai novērstu dziļo viltojumu izplatību. Piemēram, viena stratēģija ir pārbaudīt video atbilstību citiem informācijas avotiem. Var meklēt video par notikumiem, kas, iespējams, uzņemti no citiem leņķiem, vai var pārbaudīt video fona informāciju (piemēram, laikapstākļu modeļus un atrašanās vietas), lai noteiktu neatbilstības. Ārpus šī, Blockchain tiešsaistes virsgrāmatu sistēma var reģistrēt videoklipus, kad tie tiek sākotnēji izveidoti, saglabājot oriģinālo audio un attēlus, lai vienmēr varētu pārbaudīt atvasinātos videoklipus, vai tie nav manipulēti.

Galu galā ir svarīgi, lai tiktu izveidotas uzticamas metodes dziļo viltojumu noteikšanai un lai šīs noteikšanas metodes atbilstu jaunākajiem dziļo viltojumu tehnoloģiju sasniegumiem. Lai gan ir grūti precīzi zināt, kāda būs dziļo viltojumu ietekme, ja nav uzticamu metožu dziļo viltojumu (un citu viltotu plašsaziņas līdzekļu veidu) noteikšanai, dezinformācija varētu izplatīties un mazināt cilvēku uzticēšanos sabiedrībai un iestādēm.

Deepfakes sekas

Kādas ir briesmas, ļaujot nekontrolēti izplatīties dziļiem viltojumiem?

Viena no lielākajām problēmām, ko pašlaik rada dziļi viltojumi, ir nevienprātīga pornogrāfija, kas veidota, apvienojot cilvēku sejas ar pornogrāfiskiem videoklipiem un attēliem. AI ētikas speciālisti ir noraizējušies, ka viltus viltojumus vairāk izmantos viltus atriebības pornogrāfijas veidošanā. Turklāt viltojumus var izmantot, lai iebiedētu un kaitētu gandrīz jebkura cilvēka reputācijai, jo tos var izmantot, lai cilvēkus ievietotu pretrunīgos un kompromitējošos scenārijos.

Uzņēmumi un kiberdrošības speciālisti ir pauduši bažas par dziļo viltojumu izmantošanu, lai veicinātu krāpniecību, krāpšanu un izspiešanu. Iespējams, dziļi viltots audio ir bijis izmanto, lai pārliecinātu darbiniekus uzņēmumam, lai pārskaitītu naudu krāpniekiem

Iespējams, ka dziļajiem viltojumiem var būt kaitīga ietekme pat ārpus iepriekš minētajām. Padziļināti viltojumi var mazināt cilvēku uzticību plašsaziņas līdzekļiem kopumā un apgrūtināt cilvēku atšķiršanu starp patiesām ziņām no viltus ziņām. Ja daudzi videoklipi tīmeklī ir viltoti, valdībām, uzņēmumiem un citām iestādēm ir vieglāk apšaubīt likumīgas pretrunas un neētisku praksi.

Runājot par valdībām, dziļi viltojumi var pat radīt draudus demokrātijas darbībai. Demokrātija prasa, lai pilsoņi varētu pieņemt apzinātus lēmumus par politiķiem, pamatojoties uz ticamu informāciju. Dezinformācija grauj demokrātiskos procesus. Piemēram, Gabonas prezidents Ali Bongo parādījās video, mēģinot nomierināt Gabonas pilsoņus. Tika pieņemts, ka prezidents ilgu laiku bija slikti, un viņa pēkšņā parādīšanās iespējams, viltus video aizsāka apvērsuma mēģinājumu. Prezidents Donalds Tramps apgalvoja, ka audioieraksts, kurā viņš lielījās par sieviešu sagrābšanu aiz dzimumorgāniem bija viltots, neskatoties uz to, ka tas tiek aprakstīts arī kā "saruna ģērbtuvē". Arī princis Endrjū apgalvoja, ka Emīlijas Maitilisas advokāta sniegtais attēls ir viltots, lai gan advokāts uzstāja uz tā autentiskumu.

Galu galā, lai gan dziļās viltošanas tehnoloģijai ir likumīgs lietojums, šīs tehnoloģijas ļaunprātīga izmantošana var radīt daudz iespējamo kaitējumu. Šī iemesla dēļ ir ārkārtīgi svarīgi, lai tiktu izveidotas un uzturētas metodes multivides autentiskuma noteikšanai.