taló Què són els Deepfakes? - Unite.AI
Connecteu-vos amb nosaltres

IA 101

Què són els Deepfakes?

mm
actualitzat on

A mesura que els deepfakes es fan més fàcils de fer i més prolífics, se'ls presta més atenció. Els deepfakes s'han convertit en el punt central de les discussions sobre l'ètica de la IA, la desinformació, l'obertura de la informació i Internet i la regulació. Val la pena estar informat sobre els deepfakes i tenir una comprensió intuïtiva de què són els deepfakes. Aquest article aclareix la definició d'un deepfake, examinarà els seus casos d'ús, discutirà com es poden detectar els deepfake i examinarà les implicacions dels deepfakes per a la societat.

Què són els Deepfakes?

Abans de continuar discutint les falsificacions profundes, seria útil prendre una estona i aclarir què són realment els "deepfakes".. Hi ha una quantitat substancial de confusió pel que fa al terme Deepfake, i sovint el terme s'aplica malament a qualsevol mitjà falsificat, independentment de si és o no un deepfake genuí. Per tal de qualificar-se com a Deepfake, els mitjans falsificats en qüestió s'han de generar amb un sistema d'aprenentatge automàtic, concretament una xarxa neuronal profunda.

L'ingredient clau dels deepfakes és l'aprenentatge automàtic. L'aprenentatge automàtic ha fet possible que els ordinadors generin automàticament vídeo i àudio amb relativa rapidesa i facilitat. Les xarxes neuronals profundes s'entrenen amb imatges d'una persona real per tal que la xarxa aprengui com es veuen i es mouen les persones sota les condicions ambientals objectiu. A continuació, la xarxa entrenada s'utilitza en imatges d'un altre individu i s'amplia amb tècniques addicionals de gràfics per ordinador per tal de combinar la nova persona amb el metratge original. S'utilitza un algorisme codificador per determinar les similituds entre la cara original i la cara objectiu. Un cop aïllades les característiques comunes de les cares, s'utilitza un segon algorisme d'IA anomenat descodificador. El descodificador examina les imatges codificades (comprimides) i les reconstrueix a partir de les característiques de les imatges originals. S'utilitzen dos descodificadors, un a la cara del subjecte original i el segon a la cara de la persona objectiu. Perquè es pugui fer l'intercanvi, el descodificador entrenat en imatges de la persona X s'alimenta d'imatges de la persona Y. El resultat és que la cara de la persona Y és una reconstrucció sobre les expressions facials i l'orientació de la persona X.

Actualment, encara es necessita una bona quantitat de temps per fer un deepfake. El creador de la falsificació ha de passar molt de temps ajustant manualment els paràmetres del model, ja que els paràmetres subòptims provocaran imperfeccions notables i errors d'imatge que revelaran la veritable naturalesa de la falsificació.

Tot i que sovint se suposa que la majoria de deepfakes es fan amb un tipus de xarxa neuronal anomenada a xarxa adversa generativa (GAN), molts (potser la majoria) deepfakes creats en aquests dies no es basen en GAN. Tot i que els GAN van tenir un paper destacat en la creació de deepfakes primerencs, la majoria dels vídeos deepfake es creen mitjançant mètodes alternatius, segons Siwei Lyu de SUNY Buffalo.

Es necessita una quantitat desproporcionadament gran de dades d'entrenament per tal d'entrenar un GAN, i els GAN sovint triguen molt més a representar una imatge en comparació amb altres tècniques de generació d'imatges. Els GAN també són millors per generar imatges estàtiques que el vídeo, ja que els GAN tenen dificultats per mantenir les coherències d'un fotograma a un altre. És molt més comú utilitzar un codificador i diversos descodificadors per crear deepfakes.

Per a què serveixen els Deepfakes?

Molts dels deepfakes que es troben en línia són de naturalesa pornogràfica. Segons la investigació realitzada per Deeptrace, una empresa d'IA, d'una mostra d'aproximadament 15,000 vídeos deepfake fets el setembre del 2019, aproximadament el 95% d'ells eren de naturalesa pornogràfica. Una implicació preocupant d'aquest fet és que a mesura que la tecnologia es fa més fàcil d'utilitzar, podrien augmentar els incidents de pornografia de venjança falsa.

Tanmateix, no totes les falsificacions profundes són de naturalesa pornogràfica. Hi ha usos més legítims per a la tecnologia deepfake. La tecnologia deepfake d'àudio podria ajudar les persones a transmetre les seves veus habituals després que es facin malbé o es perdin a causa d'una malaltia o una lesió. Els deepfakes també es poden utilitzar per amagar les cares de persones que es troben en situacions sensibles i potencialment perilloses, alhora que permeten llegir els seus llavis i expressions. La tecnologia deepfake es pot utilitzar per millorar el doblatge de pel·lícules en idiomes estrangers, ajudar a reparar mitjans vells i danyats i fins i tot crear nous estils d'art.

Deepfakes sense vídeo

Tot i que la majoria de la gent pensa en vídeos falsos quan escolta el terme "deepfake", els vídeos falsos no són de cap manera l'únic tipus de mitjans falsos produïts amb tecnologia deepfake. La tecnologia Deepfake també s'utilitza per crear falsificacions de fotos i àudio. Com s'ha esmentat anteriorment, els GAN s'utilitzen sovint per generar imatges falses. Es creu que hi ha hagut molts casos de perfils falsos de LinkedIn i Facebook que tenen imatges de perfil generades amb algorismes deepfake.

També és possible crear deepfakes d'àudio. Les xarxes neuronals profundes s'entrenen per produir clons de veu/aspectes de veu de diferents persones, inclosos famosos i polítics. Un exemple famós d'un Deepfake d'àudio és quan l'empresa d'IA Dessa va utilitzar un model d'IA, compatible amb algorismes que no són IA, per recrear la veu de l'amfitrió del podcast Joe Rogan.

Com detectar Deepfakes

A mesura que els deepfakes es tornen més i més sofisticats, distingir-los dels mitjans genuïns es farà més i més difícil. Actualment, n'hi ha uns quants signes reveladors la gent pot buscar per determinar si un vídeo és potencialment un deepfake, com ara una mala sincronització de llavis, moviments antinaturals, parpelleig a la vora de la cara i deformacions de detalls fins com els cabells, les dents o els reflexos. Altres signes potencials d'una falsificació profunda inclouen parts de baixa qualitat del mateix vídeo i parpelleig irregular dels ulls.

Tot i que aquests signes poden ajudar a detectar un deepfake en aquest moment, ja que la tecnologia deepfake millora, l'única opció per a una detecció fiable de deepfake podria ser altres tipus d'IA entrenats per distingir les falsificacions dels mitjans reals.

Les empreses d'intel·ligència artificial, incloses moltes de les grans empreses tecnològiques, estan investigant mètodes per detectar deepfakes. El desembre passat, es va iniciar un repte de detecció de falsificacions profundes, amb el suport de tres gegants tecnològics: Amazon, Facebook i Microsoft. Equips de recerca d'arreu del món van treballar en mètodes per detectar deepfakes, competint per desenvolupar els millors mètodes de detecció. Altres grups d'investigadors, com un grup d'investigadors combinats de Google i Jigsaw, estan treballant en un tipus de "forense facial" que pot detectar vídeos que han estat alterats, fent que els seus conjunts de dades siguin de codi obert i animant altres a desenvolupar mètodes de detecció de falsificacions profundes. L'esmentat Dessa ha treballat per perfeccionar les tècniques de detecció de deepfake, intentant assegurar-se que els models de detecció funcionin en vídeos deepfake trobats a la natura (a Internet) en lloc de només en conjunts de dades de prova i formació precomposts, com el conjunt de dades de codi obert. proporcionat per Google.

També hi ha altres estratègies que s'estan investigant per fer front a la proliferació de deepfakes. Per exemple, comprovar la concordança dels vídeos amb altres fonts d'informació és una estratègia. Es poden fer cerques de vídeos d'esdeveniments potencialment pres des d'altres angles, o es poden comprovar els detalls de fons del vídeo (com els patrons meteorològics i les ubicacions) per detectar incongruències. Més enllà d'això, un sistema de registre en línia de Blockchain podrien registrar vídeos quan es creïn inicialment, mantenint el seu àudio i imatges originals de manera que els vídeos derivats sempre es puguin comprovar per manipular-los.

En última instància, és important que es creïn mètodes fiables per detectar deepfakes i que aquests mètodes de detecció estiguin al dia amb els nous avenços en tecnologia deepfake. Tot i que és difícil saber exactament quins seran els efectes dels deepfakes, si no hi ha mètodes fiables per detectar els deepfakes (i altres formes de mitjans falsos), la desinformació podria ser desenfrenada i degradar la confiança de la gent en la societat i les institucions.

Implicacions dels Deepfakes

Quins són els perills de permetre que les falsificacions profundes proliferin sense control?

Un dels problemes més grans que creen actualment els deepfakes és la pornografia no consensuada, dissenyada combinant les cares de les persones amb vídeos i imatges pornogràfiques. Els experts en ètica de l'IA estan preocupats perquè els deepfakes tinguin més ús en la creació de porno de venjança falsa. Més enllà d'això, els deepfakes es podrien utilitzar per intimidar i danyar la reputació de gairebé qualsevol persona, ja que es podrien utilitzar per situar la gent en escenaris controvertits i comprometents.

Les empreses i els especialistes en ciberseguretat han expressat la seva preocupació per l'ús de deepfakes per facilitar les estafes, el frau i l'extorsió. Suposadament, l'àudio deepfake ha estat utilitzat per convèncer els empleats d'una empresa per transferir diners als estafadors

És possible que les falsificacions profundes puguin tenir efectes nocius fins i tot més enllà dels enumerats anteriorment. Els deepfakes podrien erosionar la confiança de la gent en els mitjans en general i dificultar la distinció entre notícies reals i notícies falses. Si molts vídeos al web són falsos, és més fàcil per als governs, les empreses i altres entitats posar en dubte les controvèrsies legítimes i les pràctiques poc ètiques.

Quan es tracta de governs, els deepfakes fins i tot poden suposar amenaces per al funcionament de la democràcia. La democràcia requereix que els ciutadans siguin capaços de prendre decisions informades sobre els polítics basant-se en informació fiable. La desinformació soscava els processos democràtics. Per exemple, el president del Gabon, Ali Bongo, va aparèixer en un vídeo que intentava tranquil·litzar la ciutadania del Gabon. Es va suposar que el president estava malalt durant un llarg període de temps i la seva aparició sobtada un vídeo fals probable va donar origen a un intent de cop. El president Donald Trump va afirmar que una gravació d'àudio d'ell presumeix d'agafar dones pels genitals era fals, tot i qualificar-lo també de "xerrada de vestidor". El príncep Andreu també va afirmar que una imatge proporcionada per l'advocat d'Emily Maitilis era falsa, tot i que l'advocat va insistir en la seva autenticitat.

En última instància, tot i que hi ha usos legítims per a la tecnologia deepfake, hi ha molts danys potencials que poden sorgir de l'ús indegut d'aquesta tecnologia. Per aquest motiu, és extremadament important que es creïn i mantinguin mètodes per determinar l'autenticitat dels mitjans.