tynkä Mitä Deepfakes ovat? - Unite.AI
Liity verkostomme!

AI 101

Mitä Deepfakes ovat?

mm
Päivitetty on

Kun syväväärennöksiä on helpompi tehdä ja ne lisääntyvät, niihin kiinnitetään enemmän huomiota. Deepfakeista on tullut tekoälyn etiikkaa, väärää tietoa, tiedon ja Internetin avoimuutta sekä sääntelyä koskevien keskustelujen keskipiste. Kannattaa olla perillä syväväärennöksistä ja saada intuitiivinen käsitys siitä, mitä deepfake on. Tässä artikkelissa selvennetään syväväärennösten määritelmää, tarkastellaan niiden käyttötapauksia, keskustellaan siitä, kuinka syväväärennökset voidaan havaita, ja tarkastellaan syväväärennösten vaikutuksia yhteiskunnassa.

Mitä ovat Deepfakes?

Ennen kuin jatkat keskustelua syväväärennöksistä, olisi hyödyllistä ottaa aikaa ja selventää mitä "deepfake" oikeastaan ​​on. Termi Deepfake aiheuttaa huomattavaa sekaannusta, ja usein termiä käytetään väärin mihin tahansa väärennettyyn tietovälineeseen riippumatta siitä, onko kyseessä aito deepfake vai ei. Jotta kyseessä oleva väärennetty media voidaan luokitella Deepfakeksi, sen on oltava luotu koneoppimisjärjestelmällä, erityisesti syvällä hermoverkolla.

Deepfakejen tärkein ainesosa on koneoppiminen. Koneoppiminen on mahdollistanut sen, että tietokoneet voivat luoda automaattisesti videota ja ääntä suhteellisen nopeasti ja helposti. Syviä hermoverkkoja koulutetaan oikeista ihmisistä otettujen materiaalien pohjalta, jotta verkko oppii, miltä ihmiset näyttävät ja liikkuvat kohdeympäristön olosuhteissa. Koulutettua verkkoa käytetään sitten toisen henkilön kuvissa ja sitä täydennetään tietokonegrafiikkatekniikoilla uuden henkilön yhdistämiseksi alkuperäiseen materiaaliin. Enkooderialgoritmia käytetään määrittämään alkuperäisen kasvon ja kohdepinnan väliset yhtäläisyydet. Kun kasvojen yhteiset piirteet on eristetty, käytetään toista AI-algoritmia, jota kutsutaan dekooderiksi. Dekooderi tutkii koodatut (pakatut) kuvat ja rekonstruoi ne alkuperäisten kuvien ominaisuuksien perusteella. Käytetään kahta dekooderia, joista toinen on alkuperäisen kohteen kasvoilla ja toinen kohdehenkilön kasvoilla. Jotta vaihto voidaan tehdä, henkilön X kuviin opetettu dekooderi syötetään henkilön Y kuvia. Tuloksena on, että henkilön Y kasvot rekonstruoidaan henkilön X ilmeistä ja suuntautumisesta.

Tällä hetkellä syväväärennösten tekemiseen kuluu vielä melko paljon aikaa. Väärennöksen luojan on vietyttävä pitkän aikaa mallin parametrien manuaaliseen säätämiseen, koska alioptimaaliset parametrit johtavat havaittaviin epätäydellisyyksiin ja kuvavirheisiin, jotka paljastavat väärennöksen todellisen luonteen.

Vaikka usein oletetaan, että useimmat syväväärennökset tehdään erään tyyppisellä neuroverkolla nimeltä a generative adversarial network (GAN), monet (ehkä useimmat) näinä päivinä luodut syväväärennökset eivät ole riippuvaisia ​​GANista. Vaikka GAN:illa oli merkittävä rooli varhaisten deepfakejen luomisessa, useimmat deepfake-videot luodaan vaihtoehtoisilla menetelmillä SUNY Buffalon Siwei Lyun mukaan.

GAN:in kouluttaminen vaatii suhteettoman paljon harjoitustietoa, ja GAN:illa kestää usein paljon kauemmin kuvan renderöimiseen verrattuna muihin kuvanmuodostustekniikoihin. GAN-verkot ovat myös parempia staattisten kuvien luomiseen kuin videoita, koska GAN-verkoilla on vaikeuksia ylläpitää yhtenäisyyttä kuvasta toiseen. On paljon yleisempää käyttää enkooderia ja useita dekoodeja syväväärennösten luomiseen.

Mihin Deepfakeja käytetään?

Monet netistä löydetyistä syväväärennöksistä ovat luonteeltaan pornografisia. Tekoälyyrityksen Deeptracen tekemän tutkimuksen mukaan syyskuussa 15,000 otetun noin 2019 95 syväfake-videon otoksesta noin XNUMX % oli luonteeltaan pornografisia. Tämän tosiasian huolestuttava seuraus on, että kun teknologian käyttö helpottuu, väärennetyn kostopornon tapaukset voivat lisääntyä.

Kaikki syvät väärennökset eivät kuitenkaan ole pornografisia. Deepfake-teknologialla on laillisempaa käyttöä. Audiodeepfake-tekniikka voi auttaa ihmisiä lähettämään tavalliset äänensä, kun ne ovat vahingoittuneet tai kadonneet sairauden tai vamman vuoksi. Deepfakeja voidaan käyttää myös sellaisten ihmisten kasvojen piilottamiseen, jotka ovat herkissä, mahdollisesti vaarallisissa tilanteissa, samalla kun heidän huulinsa ja ilmeensä voidaan lukea. Deepfake-teknologiaa voidaan mahdollisesti käyttää parantamaan vieraiden kielten elokuvien jälkiäänitystä, auttamaan vanhojen ja vaurioituneiden materiaalien korjaamisessa ja jopa luomaan uusia taidetyylejä.

Ei-videon syväväärennökset

Vaikka useimmat ihmiset ajattelevat väärennettyjä videoita, kun he kuulevat termin "deepfake", väärennetyt videot eivät suinkaan ole ainoa deepfake-tekniikalla tuotettu väärennetty media. Deepfake-tekniikkaa käytetään myös valokuva- ja ääniväärennösten luomiseen. Kuten aiemmin mainittiin, GAN-verkkoja käytetään usein väärennettyjen kuvien luomiseen. Uskotaan, että on ollut monia tapauksia väärennetyistä LinkedIn- ja Facebook-profiileista, joissa profiilikuvat on luotu deepfake-algoritmeilla.

On mahdollista luoda myös äänen syväväärennöksiä. Deep neuroverkot on koulutettu tuottamaan ääniklooneja / ääni skinejä eri ihmisistä, mukaan lukien julkkikset ja poliitikot. Yksi kuuluisa esimerkki audio Deepfakesta on, kun tekoälyyritys Dessa käytti tekoälymallia, ei-AI-algoritmeilla tuettu podcast-isäntä Joe Roganin äänen luomiseksi uudelleen.

Kuinka havaita syvät väärennökset

Kun syväväärennöksistä tulee yhä kehittyneempiä, niiden erottaminen aidosta mediasta tulee entistä tiukempaa. Tällä hetkellä niitä on muutama merkki ihmiset voivat tarkistaa, onko video mahdollisesti syväväärennös, kuten huono huulten synkronointi, epäluonnolliset liikkeet, välkkyminen kasvojen reunoilla ja hienojen yksityiskohtien, kuten hiusten, hampaiden tai heijastusten, vääntyminen. Muita mahdollisia merkkejä syväväärennöksestä ovat saman videon huonommat osat ja epäsäännöllinen silmien räpyttely.

Vaikka nämä merkit voivat auttaa havaitsemaan deepfake tällä hetkellä, koska deepfake-tekniikka parantaa ainoa vaihtoehto luotettavaan syväväärennösten havaitsemiseen, voi olla muun tyyppinen tekoäly, joka on koulutettu erottamaan väärennökset oikeasta mediasta.

Tekoälyyritykset, mukaan lukien monet suuret teknologiayritykset, tutkivat menetelmiä syväväärennösten havaitsemiseksi. Viime joulukuussa käynnistettiin syväväärennösten tunnistushaaste, jota tuki kolme teknologiajättiä: Amazon, Facebook ja Microsoft. Tutkimusryhmät ympäri maailmaa työskentelivät syvällisten väärennösten havaitsemismenetelmien parissa ja kilpailivat parhaiden havaitsemismenetelmien kehittämisestä. Muut tutkijaryhmät, kuten Googlen ja Jigsawin yhdistettyjen tutkijoiden ryhmä, työskentelevät eräänlaisen "kasvojen rikosteknisen" tekniikan parissa, joka pystyy havaitsemaan muunnettuja videoita, tehdä tietojoukostaan ​​avoimen lähdekoodin ja kannustamalla muita kehittämään syvän väärennöksen havaitsemismenetelmiä. Edellä mainittu Dessa on työskennellyt syvän väärennösten tunnistustekniikoiden jalostamiseksi ja pyrkinyt varmistamaan, että tunnistusmallit toimivat luonnosta löydetyissä syväväärennösvideoissa (internetissä) sen sijaan, että ne olisivat vain valmiita koulutus- ja testausaineistoja, kuten avoimen lähdekoodin tietojoukkoa. Google tarjosi.

On myös muita strategioita joita tutkitaan syvän väärennösten leviämisen torjumiseksi. Esimerkiksi videoiden yhteensopivuuden tarkistaminen muiden tietolähteiden kanssa on yksi strategia. Voidaan etsiä videoita tapahtumista, jotka on mahdollisesti otettu muista näkökulmista, tai videon taustatietoja (kuten sääkuvioita ja paikkoja) voidaan tarkistaa epäjohdonmukaisuuksien varalta. Tämän lisäksi Blockchain online-kirjanpitojärjestelmä voivat rekisteröidä videoita, kun ne on alun perin luotu, säilyttäen alkuperäisen äänen ja kuvat, jotta johdannaisvideoita voidaan aina tarkistaa manipuloinnin varalta.

Viime kädessä on tärkeää, että luodaan luotettavia menetelmiä syväväärennösten havaitsemiseen ja että nämä havaitsemismenetelmät ovat mukana Deepfake-tekniikan uusimman kehityksen mukana. Vaikka on vaikea tietää tarkalleen, mitkä ovat syväväärennösten vaikutukset, jos ei ole olemassa luotettavia menetelmiä syväväärennösten (ja muiden väärennettyjen tiedotusvälineiden) havaitsemiseen, väärä tieto saattaa levitä ja heikentää ihmisten luottamusta yhteiskuntaan ja instituutioihin.

Deepfakesin vaikutukset

Mitä vaaroja on, jos annat syvän väärennöksen lisääntyä hallitsemattomasti?

Yksi suurimmista ongelmista, joita syväväärennökset aiheuttavat tällä hetkellä, on ei-konsensaalinen pornografia, joka on suunniteltu yhdistämällä ihmisten kasvot pornografisiin videoihin ja kuviin. Tekoälyetiikkaa tutkijat ovat huolissaan siitä, että syväväärennöksiä käytetään enemmän väärennettyjen kostopornon luomisessa. Tämän lisäksi syväväärennöksiä voidaan käyttää kiusaamaan ja vahingoittamaan lähes kenen tahansa mainetta, koska niitä voidaan käyttää ihmisten asettamiseen kiistanalaisia ​​ja kompromisseja aiheuttaviin skenaarioihin.

Yritykset ja kyberturvallisuusasiantuntijat ovat ilmaisseet huolensa syväväärennösten käytöstä huijausten, petosten ja kiristyksen helpottamiseksi. Väitetään, että syväfake ääni on ollut käytetään vakuuttamaan työntekijät yritys siirtää rahaa huijareille

On mahdollista, että syväväärennöksillä voi olla haitallisia vaikutuksia jopa yllä lueteltujen lisäksi. Deepfake voi mahdollisesti heikentää ihmisten luottamusta mediaan yleensä ja vaikeuttaa ihmisten erottamista oikeiden uutisten ja valeuutisten välillä. Jos monet verkossa olevat videot ovat väärennettyjä, hallitusten, yritysten ja muiden tahojen on helpompi kyseenalaistaa oikeutettuja kiistoja ja epäeettisiä käytäntöjä.

Hallitusten osalta syväväärennökset voivat jopa muodostaa uhkia demokratian toiminnalle. Demokratia edellyttää, että kansalaiset voivat tehdä tietoisia päätöksiä poliitikoista luotettavan tiedon perusteella. Väärä tieto heikentää demokraattisia prosesseja. Esimerkiksi Gabonin presidentti Ali Bongo esiintyi videolla, joka yritti rauhoittaa Gabonin kansalaisia. Presidentin oletettiin olleen pitkään huonovointinen, ja hänen äkillisen ilmestymisensä sisälle todennäköinen väärennösvideo aloitti vallankaappausyrityksen. Presidentti Donald Trump väitti, että äänitallenne, jossa hän kehuskelee naisten tarttumisesta sukuelimiin oli väärennös, vaikka kuvailee sitä myös "pukuhuonepuheeksi". Myös prinssi Andrew väitti, että Emily Maitiliksen asianajajan antama kuva oli väärennös, vaikka asianajaja vaati sen aitoutta.

Vaikka syväväärennösteknologialla onkin laillisia käyttötarkoituksia, tekniikan väärinkäytöstä voi aiheutua monia mahdollisia haittoja. Tästä syystä on erittäin tärkeää, että luodaan ja ylläpidetään menetelmiä median aitouden määrittämiseksi.