Intelligence artificielle
Qu’est-ce que les Deepfakes ?

À mesure que les deepfakes deviennent plus faciles à créer et plus prolifiques, on leur prête plus d’attention. Les deepfakes sont devenus le point central des discussions impliquant l’éthique de l’IA, la désinformation, l’ouverture de l’information et d’Internet, ainsi que la réglementation. Il est utile d’être informé sur les deepfakes et d’avoir une compréhension intuitive de ce que sont les deepfakes. Cet article clarifiera la définition d’un deepfake, examinera leurs cas d’utilisation, discutera de la façon dont les deepfakes peuvent être détectés et examinera les implications des deepfakes pour la société.
Qu’est-ce que les Deepfakes ?
Avant de poursuivre la discussion sur les deepfakes, il serait utile de prendre un moment pour clarifier ce que sont réellement les « deepfakes ». Il y a une grande confusion quant au terme Deepfake, et souvent le terme est mal appliqué à tout média falsifié, qu’il s’agisse ou non d’un véritable deepfake. Pour être qualifié de Deepfake, le média falsifié en question doit être généré avec un système d’apprentissage automatique, spécifiquement un réseau neuronal profond.
L’ingrédient clé des deepfakes est l’apprentissage automatique. L’apprentissage automatique a rendu possible pour les ordinateurs de générer automatiquement des vidéos et des audio relativement rapidement et facilement. Les réseaux neuronaux profonds sont formés sur des séquences de personnes réelles afin que le réseau apprenne à reconnaître l’apparence et les mouvements des personnes dans les conditions environnementales ciblées. Le réseau formé est ensuite utilisé sur des images d’une autre personne et augmenté avec des techniques graphiques informatiques supplémentaires afin de combiner la nouvelle personne avec les séquences d’origine. Un algorithme d’encodeur est utilisé pour déterminer les similitudes entre le visage d’origine et le visage cible. Une fois que les caractéristiques communes des visages ont été isolées, un deuxième algorithme d’IA appelé décodeur est utilisé. Le décodeur examine les images encodées (compressées) et les reconstruit en fonction des caractéristiques des images d’origine. Deux décodeurs sont utilisés, un sur le visage de la personne d’origine et le second sur le visage de la personne cible. Pour effectuer l’échange, le décodeur formé sur des images de la personne X est alimenté avec des images de la personne Y. Le résultat est que le visage de la personne Y est reconstruit sur les expressions faciales et l’orientation de la personne X.
Actuellement, il faut encore un certain temps pour créer un deepfake. Le créateur du faux doit passer beaucoup de temps à ajuster manuellement les paramètres du modèle, car des paramètres sous-optimaux entraîneront des imperfections et des glitches d’image visibles qui trahiront la véritable nature du faux.
Bien que l’on suppose souvent que la plupart des deepfakes sont créés avec un type de réseau neuronal appelé réseau antagoniste génératif (GAN), de nombreux (peut-être la plupart) deepfakes créés aujourd’hui ne reposent pas sur les GAN. Même si les GAN ont joué un rôle important dans la création des premiers deepfakes, la plupart des vidéos deepfake sont créées à l’aide de méthodes alternatives, selon Siwei Lyu de SUNY Buffalo.
Il faut une quantité disproportionnée de données de formation pour former un GAN, et les GAN prennent souvent beaucoup plus de temps pour rendre une image par rapport à d’autres techniques de génération d’images. Les GAN sont également mieux adaptés pour générer des images statiques que des vidéos, car les GAN ont des difficultés à maintenir la cohérence d’une image à l’autre. Il est beaucoup plus courant d’utiliser un encodeur et plusieurs décodeurs pour créer des deepfakes.
À quoi servent les Deepfakes ?
La plupart des deepfakes trouvés en ligne sont de nature pornographique. Selon des recherches menées par Deeptrace, une entreprise d’IA, sur un échantillon d’environ 15 000 vidéos deepfake prises en septembre 2019, environ 95 % d’entre elles étaient de nature pornographique. Une implication inquiétante de ce fait est que, à mesure que la technologie devient plus facile à utiliser, les cas de fausse vengeance pornographique pourraient augmenter.
Cependant, tous les deepfakes ne sont pas de nature pornographique. Il existe des utilisations plus légitimes de la technologie deepfake. La technologie de deepfake audio pourrait aider les gens à diffuser leur voix normale après qu’elle ait été endommagée ou perdue en raison d’une maladie ou d’une blessure. Les deepfakes peuvent également être utilisés pour cacher les visages des personnes qui se trouvent dans des situations sensibles, potentiellement dangereuses, tout en permettant à leurs lèvres et à leurs expressions d’être lues. La technologie deepfake peut potentiellement être utilisée pour améliorer le doublage des films en langues étrangères, aider à la réparation des médias anciens et endommagés, et même créer de nouveaux styles d’art.
Deepfakes non vidéo
Alors que la plupart des gens pensent à des vidéos falsifiées lorsqu’ils entendent le terme « deepfake », les vidéos falsifiées ne sont pas le seul type de média faux produit avec la technologie deepfake. La technologie deepfake est utilisée pour créer des faux photos et des faux audio. Comme mentionné précédemment, les GAN sont fréquemment utilisés pour générer de fausses images. On pense que de nombreux cas de faux profils LinkedIn et Facebook ont des images de profil générées avec des algorithmes deepfake.
Il est possible de créer des deepfakes audio. Les réseaux neuronaux profonds sont formés pour produire des clones de voix / des « peaux » de voix de différentes personnes, y compris des célébrités et des personnalités politiques. Un exemple célèbre de deepfake audio est lorsque l’entreprise d’IA Dessa a utilisé un modèle d’IA, soutenu par des algorithmes non IA, pour recréer la voix de l’hôte de podcast Joe Rogan.
Comment repérer les Deepfakes
À mesure que les deepfakes deviennent de plus en plus sophistiqués, il sera de plus en plus difficile de les distinguer des médias authentiques. Actuellement, il existe quelques signes révélateurs que les gens peuvent rechercher pour déterminer si une vidéo est potentiellement un deepfake, comme une synchronisation labiale médiocre, des mouvements non naturels, des scintillements autour du bord du visage et des déformations de détails fins comme les cheveux, les dents ou les reflets. D’autres signes potentiels de deepfake incluent des parties de la même vidéo de moindre qualité et des clignements des yeux irréguliers.
Même si ces signes peuvent aider à repérer un deepfake pour l’instant, à mesure que la technologie deepfake s’améliore, la seule option pour une détection fiable de deepfake pourrait être d’autres types d’IA formés pour distinguer les faux des médias réels.
Les entreprises d’IA, y compris de nombreuses grandes entreprises technologiques, recherchent des méthodes de détection de deepfakes. Le mois dernier, un défi de détection de deepfake a été lancé, soutenu par trois géants de la technologie : Amazon, Facebook et Microsoft. Des équipes de recherche du monde entier ont travaillé sur des méthodes de détection de deepfakes, concourant pour développer les meilleures méthodes de détection. D’autres groupes de chercheurs, comme un groupe de chercheurs combinés de Google et Jigsaw, travaillent sur un type de « police scientifique du visage » qui peut détecter les vidéos qui ont été modifiées, en rendant leurs jeux de données open source et en encourageant les autres à développer des méthodes de détection de deepfakes. La société Dessa mentionnée précédemment a travaillé sur l’affinement des techniques de détection de deepfakes, essayant de s’assurer que les modèles de détection fonctionnent sur des vidéos deepfake trouvées sur Internet plutôt que seulement sur des jeux de données de formation et de test précomposés, comme le jeu de données open source fourni par Google.
Il existe également d’autres stratégies qui sont étudiées pour lutter contre la prolifération des deepfakes. Par exemple, vérifier les vidéos pour leur concordance avec d’autres sources d’information est une stratégie. Des recherches peuvent être effectuées pour des vidéos d’événements potentiellement pris sous d’autres angles, ou des détails de fond de la vidéo (comme les modèles météorologiques et les emplacements) peuvent être vérifiés pour des incohérences. Au-delà de cela, un système de registre en ligne Blockchain pourrait enregistrer les vidéos lorsqu’elles sont initialement créées, en conservant leur audio et leurs images d’origine afin que les vidéos dérivées puissent toujours être vérifiées pour manipulation.
En fin de compte, il est important que des méthodes fiables de détection de deepfakes soient créées et que ces méthodes de détection suivent les dernières avancées de la technologie deepfake. Même si il est difficile de savoir exactement quels seront les effets des deepfakes, s’il n’y a pas de méthodes fiables de détection de deepfakes (et d’autres formes de média faux), la désinformation pourrait potentiellement se propager et éroder la confiance des gens dans la société et les institutions.
Implications des Deepfakes
Quels sont les dangers de laisser les deepfakes se propager sans contrôle ?
L’un des plus grands problèmes que les deepfakes créent actuellement est la pornographie non consensuelle, créée en combinant les visages des gens avec des vidéos et des images pornographiques. Les éthiciens de l’IA s’inquiètent que les deepfakes soient utilisés pour créer de la vengeance pornographique. Au-delà de cela, les deepfakes pourraient être utilisés pour harceler et nuire à la réputation de presque n’importe qui, car ils pourraient être utilisés pour placer les gens dans des scénarios controversés et compromettants.
Les entreprises et les spécialistes de la cybersécurité ont exprimé leur inquiétude quant à l’utilisation de deepfakes pour faciliter les arnaques, les fraudes et l’extorsion. Selon certaines allégations, des deepfakes audio ont été utilisés pour convaincre les employés d’une entreprise de transférer de l’argent à des escrocs.
Il est possible que les deepfakes aient des effets nocifs au-delà de ceux mentionnés ci-dessus. Les deepfakes pourraient potentiellement éroder la confiance des gens dans les médias en général et rendre difficile pour les gens de distinguer les nouvelles réelles des fausses. Si de nombreuses vidéos sur le Web sont fausses, il devient plus facile pour les gouvernements, les entreprises et d’autres entités de jeter un doute sur les controverses et les pratiques contraires à l’éthique légitimes.
Lorsqu’il s’agit des gouvernements, les deepfakes peuvent même poser des menaces à l’opération de la démocratie. La démocratie nécessite que les citoyens soient en mesure de prendre des décisions éclairées sur les politiciens sur la base d’informations fiables. La désinformation sape les processus démocratiques. Par exemple, le président du Gabon, Ali Bongo, est apparu dans une vidéo visant à rassurer la population gabonaise. Le président était supposé être malade pendant une longue période, et son apparition soudaine dans une vidéo probablement fausse a déclenché une tentative de coup d’État. Le président Donald Trump a affirmé qu’une enregistrement audio de lui se vantant de saisir les femmes par les organes génitaux était faux, malgré le fait qu’il l’ait également décrit comme « des discussions de vestiaire ». Le prince Andrew a également prétendu qu’une image fournie par l’avocat d’Emily Maitilis était fausse, même si l’avocat a insisté sur son authenticité.
En fin de compte, même s’il existe des utilisations légitimes de la technologie deepfake, il existe de nombreux dommages potentiels qui peuvent résulter de la mauvaise utilisation de cette technologie. Pour cette raison, il est extrêmement important que des méthodes pour déterminer l’authenticité des médias soient créées et maintenues.










