stomp Wat is Deepfakes? - Verenig.AI
Verbinding met ons

AI 101

Wat is Deepfakes?

mm
Opgedateer on

Namate dieepfakes makliker word om te maak en meer produktief, word meer aandag daaraan gegee. Deepfakes het die fokuspunt geword van besprekings oor KI-etiek, verkeerde inligting, openheid van inligting en die internet, en regulering. Dit betaal om ingelig te wees oor diepvals en om 'n intuïtiewe begrip te hê van wat diepvals is. Hierdie artikel sal die definisie van 'n diepvals verduidelik, hul gebruiksgevalle ondersoek, bespreek hoe diepvals opgespoor kan word en die implikasies van diepvals vir die samelewing ondersoek.

Wat is Deepfakes?

Voordat jy verder gaan om diepvervalsings verder te bespreek, sal dit nuttig wees om tyd te neem en duidelikheid te gee wat "deepfakes" eintlik is. Daar is 'n aansienlike hoeveelheid verwarring oor die term Deepfake, en dikwels word die term verkeerd toegepas op enige vervalste media, ongeag of dit 'n ware deepfake is of nie. Om as 'n Deepfake te kwalifiseer, moet die betrokke vervalste media gegenereer word met 'n masjienleerstelsel, spesifiek 'n diep neurale netwerk.

Die sleutelbestanddeel van deepfakes is masjienleer. Masjienleer het dit vir rekenaars moontlik gemaak om outomaties video en oudio relatief vinnig en maklik te genereer. Diep neurale netwerke word opgelei op beeldmateriaal van 'n regte persoon sodat die netwerk kan leer hoe mense lyk en beweeg onder die teiken omgewingstoestande. Die opgeleide netwerk word dan op beelde van 'n ander individu gebruik en aangevul met bykomende rekenaargrafika-tegnieke om die nuwe persoon met die oorspronklike beeldmateriaal te kombineer. 'n Enkodeerder-algoritme word gebruik om die ooreenkomste tussen die oorspronklike gesig en die teikenvlak te bepaal. Sodra die algemene kenmerke van die gesigte geïsoleer is, word 'n tweede KI-algoritme genaamd 'n dekodeerder gebruik. Die dekodeerder ondersoek die geënkodeerde (saamgeperste) beelde en rekonstrueer hulle op grond van die kenmerke in die oorspronklike beelde. Twee dekodeerders word gebruik, een op die oorspronklike onderwerp se gesig en die tweede op die teikenpersoon se gesig. Ten einde die omruiling te maak, word die dekodeerder wat op beelde van persoon X opgelei is, beelde van persoon Y gevoer. Die resultaat is dat persoon Y se gesig rekonstruksie oor Persoon X se gesigsuitdrukkings en oriëntasie is.

Tans neem dit nog 'n redelike hoeveelheid tyd vir 'n deepfake om gemaak te word. Die skepper van die nep moet 'n lang tyd spandeer om parameters van die model met die hand aan te pas, aangesien suboptimale parameters sal lei tot merkbare onvolmaakthede en beeldfoute wat die nep se ware aard weggee.

Alhoewel daar gereeld aangeneem word dat die meeste diepvals gemaak word met 'n tipe neurale netwerk genaamd a generatiewe teenstandersnetwerk (GAN), baie (dalk die meeste) deepfakes wat deesdae geskep word, maak nie staat op GAN's nie. Terwyl GAN's wel 'n prominente rol gespeel het in die skepping van vroeë diepvals, word die meeste diepvalse video's deur alternatiewe metodes geskep, volgens Siwei Lyu van SUNY Buffalo.

Dit neem 'n buitensporige groot hoeveelheid opleidingsdata om 'n GAN op te lei, en GAN's neem dikwels baie langer om 'n beeld weer te gee in vergelyking met ander beeldgenereringstegnieke. GAN's is ook beter vir die generering van statiese beelde as video, aangesien GAN's probleme ondervind om konsekwenthede van raam tot raam te handhaaf. Dit is baie meer algemeen om 'n enkodeerder en veelvuldige dekodeerders te gebruik om diepvals te skep.

Waarvoor word Deepfakes gebruik?

Baie van die deepfakes wat aanlyn gevind word, is pornografies van aard. Volgens navorsing gedoen deur Deeptrace, 'n KI-firma, uit 'n steekproef van ongeveer 15,000 2019 diepvals video's wat in September van 95 geneem is, was ongeveer XNUMX% daarvan pornografies van aard. 'n Kommerwekkende implikasie van hierdie feit is dat namate die tegnologie makliker word om te gebruik, voorvalle van vals wraakpornografie kan styg.

Nie alle diep vervalsings is egter pornografies van aard nie. Daar is meer wettige gebruike vir diepvals tegnologie. Oudio-diepnep-tegnologie kan mense help om hul gereelde stemme uit te saai nadat hulle beskadig is of verlore geraak het weens siekte of besering. Deepfakes kan ook gebruik word om die gesigte van mense wat in sensitiewe, potensieel gevaarlike situasies is weg te steek, terwyl hulle steeds toelaat dat hul lippe en uitdrukkings gelees word. Deepfake-tegnologie kan moontlik gebruik word om die oorklanking op vreemdetalige films te verbeter, te help met die herstel van ou en beskadigde media, en selfs nuwe kunsstyle te skep.

Nie-Video Deepfakes

Terwyl die meeste mense aan vals video's dink wanneer hulle die term "deepfake" hoor, is vals video's geensins die enigste soort vals media wat met diepvals tegnologie vervaardig word nie. Deepfake-tegnologie word ook gebruik om foto- en klankvervalsings te skep. Soos voorheen genoem, word GAN's gereeld gebruik om vals beelde te genereer. Daar word gedink dat daar baie gevalle was van vals LinkedIn- en Facebook-profiele wat profielbeelde het wat met diepvals algoritmes gegenereer is.

Dit is ook moontlik om klank-deepfakes te skep. Diep neurale netwerke word opgelei om stemklone/stemvelle van verskillende mense te produseer, insluitend bekendes en politici. Een bekende voorbeeld van 'n klank Deepfake is wanneer die KI-maatskappy Dessa gebruik gemaak het van 'n KI-model, ondersteun deur nie-AI-algoritmes, om die stem van die podcast-gasheer Joe Rogan te herskep.

Hoe om Deepfakes op te spoor

Soos diepvals meer en meer gesofistikeerd word, sal dit moeiliker en moeiliker word om dit van ware media te onderskei. Tans is daar 'n paar verhelderende tekens mense kan soek om vas te stel of 'n video moontlik 'n diep vals is, soos swak lip-sinchronisasie, onnatuurlike beweging, flikkering om die rand van die gesig, en kromming van fyn besonderhede soos hare, tande of weerkaatsings. Ander potensiële tekens van 'n deepfake sluit in dele van 'n laer gehalte van dieselfde video, en onreëlmatige knip van die oë.

Alhoewel hierdie tekens 'n mens op die oomblik kan help om 'n diepvals te sien, kan die enigste opsie vir betroubare diepvalsopsporing ander tipes KI wees wat opgelei is om namaaksels van regte media te onderskei, aangesien diepvals tegnologie verbeter.

Kunsmatige intelligensiemaatskappye, insluitend baie van die groot tegnologiemaatskappye, ondersoek metodes om diepvals op te spoor. Verlede Desember is 'n diepvals-opsporingsuitdaging begin, ondersteun deur drie tegnologiereuse: Amazon, Facebook en Microsoft. Navorsingspanne van regoor die wêreld het gewerk aan metodes om diepvals op te spoor en meegeding om die beste opsporingsmetodes te ontwikkel. Ander groepe navorsers, soos 'n groep gekombineerde navorsers van Google en Jigsaw, werk aan 'n tipe "gesigsforensiese" wat video's kan opspoor wat verander is, maak hul datastelle oopbron en ander aan te moedig om diepvalse opsporingsmetodes te ontwikkel. Die bogenoemde Dessa het gewerk aan die verfyn van diepvalsopsporingstegnieke en probeer verseker dat die opsporingsmodelle werk op diepvalsvideo's wat in die natuur gevind word (op die internet) eerder as net op vooraf saamgestelde opleiding- en toetsdatastelle, soos die oopbrondatastel Google verskaf.

Daar is ook ander strategieë wat ondersoek word om die verspreiding van deepfakes te hanteer. Byvoorbeeld, die nagaan van video's vir ooreenstemming met ander bronne van inligting is een strategie. Soektogte kan gedoen word vir video van gebeurtenisse wat moontlik uit ander hoeke geneem is, of agtergrondbesonderhede van die video (soos weerpatrone en liggings) kan nagegaan word vir ongerymdhede. Verder as dit, 'n Blockchain aanlyn grootboek stelsel kan video's registreer wanneer dit aanvanklik geskep word, met hul oorspronklike oudio en beelde sodat afgeleide video's altyd vir manipulasie gekontroleer kan word.

Uiteindelik is dit belangrik dat betroubare metodes om diepvals op te spoor geskep word en dat hierdie opsporingmetodes tred hou met die nuutste vooruitgang in diepvals tegnologie. Alhoewel dit moeilik is om presies te weet wat die uitwerking van diepvals sal wees, as daar nie betroubare metodes is om diepvals (en ander vorme van vals media) op te spoor nie, kan verkeerde inligting moontlik hoogty vier en mense se vertroue in die samelewing en instellings verswak.

Implikasies van Deepfakes

Wat is die gevare daarvan om toe te laat dat diep vals ongehinderd versprei?

Een van die grootste probleme wat deepfakes tans skep, is nie-konsensuele pornografie, ontwerp deur mense se gesigte met pornografiese video's en beelde te kombineer. KI-etici is bekommerd dat deepfakes meer nut sal sien in die skepping van vals wraakpornografie. Daarbenewens kan diepvals gebruik word om omtrent enigiemand se reputasie te boelie en te beskadig, aangesien dit gebruik kan word om mense in kontroversiële en kompromitterende scenario's te plaas.

Maatskappye en kuberveiligheidspesialiste het hul kommer uitgespreek oor die gebruik van deepfakes om swendelary, bedrog en afpersing te fasiliteer. Na bewering was dieepfake klank gebruik om werknemers te oortuig van 'n maatskappy om geld aan swendelaars oor te dra

Dit is moontlik dat diepvals skadelike effekte kan hê, selfs verder as dié wat hierbo gelys is. Deepfakes kan moontlik mense se vertroue in die media oor die algemeen erodeer, en dit moeilik maak vir mense om tussen regte nuus en fopnuus te onderskei. As baie video's op die web vals is, word dit makliker vir regerings, maatskappye en ander entiteite om wettige kontroversies en onetiese praktyke in twyfel te trek.

Wanneer dit by regerings kom, kan diepvals selfs bedreigings vir die werking van demokrasie inhou. Demokrasie vereis dat burgers in staat is om ingeligte besluite oor politici te neem op grond van betroubare inligting. Verkeerde inligting ondermyn demokratiese prosesse. Byvoorbeeld, die president van Gaboen, Ali Bongo, het in 'n video verskyn wat probeer het om die Gaboense burgers gerus te stel. Daar word aanvaar dat die president vir 'n lang tydperk ongesteld was, en sy skielike verskyning in 'n waarskynlike vals video het 'n poging tot staatsgreep afgeskop. President Donald Trump het beweer dat 'n klankopname van hom spog dat hy vroue aan die geslagsdele gegryp het was vals, ten spyte daarvan dat hy dit ook as "kleedkamerpraatjies" beskryf het. Prins Andrew ook beweer dat 'n beeld wat deur Emily Maitilis se prokureur verskaf is, vals was, hoewel die prokureur op die egtheid daarvan aangedring het.

Uiteindelik, hoewel daar wettige gebruike vir diepvals tegnologie is, is daar baie potensiële skade wat kan ontstaan ​​as gevolg van die misbruik van daardie tegnologie. Daarom is dit uiters belangrik dat metodes geskep en onderhou word om die egtheid van media te bepaal.

Blogger en programmeerder met spesialiteite in masjienleer en Diep leer onderwerpe. Daniel hoop om ander te help om die krag van KI vir sosiale voordeel te gebruik.