talon Un expert dit que DeepFakes "parfaitement réel" sera là dans 6 mois - Unite.AI
Suivez nous sur

Intelligence artificielle

Un expert dit que DeepFakes "parfaitement réel" sera là dans 6 mois

mm
Le kit de préparation mis à jour on

Les DeepFakes, images et vidéos manipulées ou générées par des réseaux de neurones profonds, impressionnants mais controversés, risquent de devenir à la fois plus impressionnants et plus controversés dans un avenir proche, selon Hao Li, directeur du laboratoire de vision et de graphisme de l'Université de Southern. Californie. Li est un expert en vision par ordinateur et DeepFakes, et dans une récente interview avec CNBC il a dit que les Deepfakes "parfaitement réels" arriveront probablement d'ici six mois.

Li a expliqué que la plupart des DeepFakes sont toujours reconnaissables comme faux au vrai œil, et même les DeepFakes les plus convaincants nécessitent toujours des efforts substantiels de la part du créateur pour les rendre réalistes. Cependant, Li est convaincu que d'ici six mois, des DeepFakes qui semblent parfaitement réels apparaîtront probablement à mesure que les algorithmes deviendront plus sophistiqués.

Li pensait initialement qu'il faudrait entre deux et trois ans pour que les DeepFakes extrêmement convaincants deviennent plus courants, faisant cette prédiction lors d'une récente conférence organisée au Massachusetts Institute of Technology. Cependant, Li a révisé son calendrier après la révélation de la récente application chinoise Zao et d'autres développements récents concernant la technologie DeepFakes. Li expliqué à CNBC que les méthodes nécessaires pour créer des DeepFakes réalistes sont plus ou moins la méthode actuellement utilisée et que l'ingrédient principal qui créera des DeepFakes réalistes est davantage de données d'entraînement.

Li et ses collègues chercheurs ont travaillé dur sur la technologie de détection DeepFake, anticipant l'arrivée de DeepFakes extrêmement convaincants. Li et ses collègues, tels que Hany Farid de l'Université de Californie à Berkely, ont expérimenté des algorithmes DeepFake de pointe pour comprendre comment fonctionne la technologie qui les crée.

Li a expliqué à CNBC :

« Si vous voulez pouvoir détecter les deepfakes, vous devez également voir quelles sont les limites. Si vous avez besoin de créer des frameworks d'IA capables de détecter des choses extrêmement réelles, celles-ci doivent être formées à l'aide de ces types de technologies, donc à certains égards, il est impossible de les détecter si vous ne savez pas comment elles fonctionnent.

Li et ses collègues sont investis dans la création d'outils pour détecter les DeepFakes en reconnaissance des problèmes et des dangers potentiels que pose la technologie. Li et ses collègues sont loin d'être le seul groupe de chercheurs en IA préoccupés par les effets possibles des DeepFakes et intéressés par la création de contre-mesures.

Récemment, Facebook a commencé un partenariat commun avec le MIT, Microsoft et l'Université d'Oxford pour créer le DeepFake Detection Challenge, qui vise à créer des outils pouvant être utilisés pour détecter lorsque des images ou des vidéos ont été altérées. Ces outils seront open source et utilisables par les entreprises, les médias et les gouvernements. Pendant ce temps, des chercheurs de l'Institut des sciences de l'information de l'Université de Californie du Sud ont récemment créé une série d'algorithmes capables de distinguer les fausses vidéos avec une précision d'environ 96 %.

Cependant, Li a également expliqué que le problème avec DeepFakes est la façon dont ils peuvent être mal utilisés, et non la technologie elle-même. Li a noté plusieurs utilisations possibles légitimes de la technologie DeepFake, notamment dans les industries du divertissement et de la mode.

Les techniques DeepFake ont également été utilisées pour reproduire les expressions faciales de personnes dont le visage est obscurci par les images. Les chercheurs ont utilisé Generative Adnversail Networks pour créer un visage entièrement nouveau qui avait la même expression d'un sujet dans une image originale. Les techniques développées par l'Université norvégienne des sciences et technologies pourraient aider à rendre les expressions faciales lors d'entretiens avec des personnes sensibles qui ont besoin d'intimité, comme les lanceurs d'alerte. Quelqu'un d'autre pourrait laisser son visage être utilisé comme remplaçant pour la personne qui a besoin de l'anonymat, mais les expressions faciales de la personne pourraient toujours être lues.

À mesure que la sophistication de la technologie Deepfake augmente, les cas d'utilisation légitimes des Deepfakes augmenteront également. Cependant, le danger augmentera également, et pour cette raison, le travail de détection des DeepFakes effectué par Li et d'autres devient encore plus important.