Connect with us

Deepfakes et navigation dans la nouvelle ère des médias synthétiques

Leaders d’opinion

Deepfakes et navigation dans la nouvelle ère des médias synthétiques

mm

Rappelez-vous les “fausses nouvelles” ? Le terme a été utilisé (et abusé) à ce point que cela peut être difficile de se souvenir à quoi il faisait référence initialement. Mais le concept a une origine très spécifique. Il y a dix ans, les journalistes ont commencé à sonner l’alarme sur une vague de sites Web prétendus “d’actualité” lançant de fausses allégations, souvent invraisemblables, sur des politiciens et des célébrités. Beaucoup pouvaient instantanément dire que ces sites n’étaient pas légitimes.

Mais beaucoup d’autres manquaient d’outils critiques pour reconnaître cela. Le résultat a été les premiers signes d’une crise épistémologique qui engloutit maintenant Internet – une crise qui a atteint sa manifestation la plus effrayante avec l’émergence des deepfakes.

À côté d’un deepfake même passable, les sites Web de “fausses nouvelles” d’autrefois semblent inoffensifs. Pire encore, même ceux qui croient posséder des niveaux de littératie médiatique relativement élevés risquent d’être trompés. Les médias synthétiques créés à l’aide d’algorithmes d’apprentissage profond et d’intelligence artificielle générative ont le potentiel de saccager les fondements de notre société. Selon Deloitte, cette année seule, ils pourraient coûter aux entreprises plus de 250 millions de dollars grâce à des transactions fictives et d’autres formes de fraude. Pendant ce temps, le Forum économique mondial a qualifié les deepfakes de “l’une des utilisations les plus inquiétantes de l’IA”, soulignant le potentiel de “chatbots et d’avatars à l’IA à agenda défini, en temps réel” pour faciliter de nouvelles souches de manipulation ultra-personnalisée (et ultra-efficace).

La réponse suggérée par le FEM à ce problème est sensée : ils préconisent une “mentalité de confiance zéro“, qui apporte un certain scepticisme à chaque rencontre avec les médias numériques. Si nous voulons distinguer l’authentique du synthétique à l’avenir – en particulier dans les environnements en ligne immersifs – une telle mentalité sera de plus en plus essentielle.

Deux approches pour lutter contre la crise des deepfakes

Lutter contre la désinformation rampante engendrée par les médias synthétiques nécessitera, à mon avis, deux approches distinctes.

La première implique la vérification : fournir un moyen simple pour les utilisateurs quotidiens d’Internet de déterminer si la vidéo qu’ils regardent est bien authentique. De tels outils sont déjà répandus dans des industries comme les assurances, compte tenu du potentiel de mauvais acteurs à déposer de fausses réclamations aidées par des vidéos, des photographies et des documents truqués. La démocratisation de ces outils – les rendre gratuits et faciles d’accès – est une étape cruciale dans ce combat, et nous voyons déjà des mouvements importants sur ce front.

La deuxième étape est moins technologique et donc plus difficile : à savoir, sensibiliser et développer les compétences en pensée critique. Dans le sillage du scandale initial des “fausses nouvelles”, en 2015, des organisations à but non lucratif à travers le pays ont élaboré des programmes de littératie médiatique et ont travaillé pour diffuser les meilleures pratiques, souvent en s’associant à des institutions civiques locales pour habiliter les citoyens ordinaires à repérer les faussetés. Bien sûr, les “fausses nouvelles” classiques sont un jeu d’enfant par rapport aux deepfakes les plus avancés, c’est pourquoi nous devons redoubler d’efforts sur ce front et investir dans l’éducation à tous les niveaux.

Les deepfakes avancés nécessitent une pensée critique avancée

Bien sûr, ces initiatives éducatives étaient quelque peu plus faciles à entreprendre lorsque la désinformation en question était basée sur du texte. Avec les sites Web de fausses nouvelles, les signes de fraude étaient souvent évidents : conception Web maladroite, fautes d’orthographe, sources bizarres. Avec les deepfakes, les signes sont beaucoup plus subtils – et souvent impossibles à détecter au premier coup d’œil.

En conséquence, les utilisateurs d’Internet de tout âge doivent s’entraîner efficacement pour examiner les vidéos numériques à la recherche d’indicateurs de deepfakes. Cela signifie prêter une attention particulière à un certain nombre de facteurs. Pour la vidéo, cela pourrait signifier des zones floues et des ombres peu réalistes ; des mouvements et des expressions faciales peu naturels ; des teints de peau trop parfaits ; des motifs incohérents dans les vêtements et les mouvements ; des erreurs de synchronisation des lèvres ; et ainsi de suite. Pour l’audio, cela pourrait signifier des voix trop pures (ou manifestement numérisées), un manque de ton émotionnel humain, des modèles de parole étranges ou des formulations inhabituelles.

À court terme, ce type d’auto-formation peut être très utile. En nous demandant, encore et encore, Cela a-t-il l’air suspect ?, nous aiguisons non seulement notre capacité à détecter les deepfakes, mais aussi nos compétences en pensée critique en général. Cela dit, nous approchons rapidement d’un point où même l’œil le mieux formé ne pourra pas séparer le fait de la fiction sans aide extérieure. Les indices visuels – les irrégularités mentionnées ci-dessus – seront techniquement lissés, de sorte que les extraits entièrement fabriqués seront indiscernables de l’article authentique. Ce qui nous restera, c’est notre intuition situationnelle – notre capacité à nous poser des questions comme Un tel politicien ou célébrité dirait-il vraiment cela ? Le contenu de cette vidéo est-il plausible ?

C’est dans ce contexte que les plateformes de détection par IA deviennent essentielles. Lorsque l’œil nu est rendu irrecevable pour la détection des deepfakes, ces plateformes peuvent servir d’arbitres définitifs de la réalité – des garde-fous contre l’abîme épistémologique. Lorsqu’une vidéo a l’air réelle mais semble suspecte – ce qui se produira de plus en plus souvent dans les mois et les années à venir – ces plateformes peuvent nous maintenir ancrés dans les faits en confirmant la véracité de base de ce que nous regardons. En fin de compte, avec une technologie aussi puissante, la seule chose qui peut nous sauver, c’est l’IA elle-même. Nous devons lutter contre le feu avec le feu – ce qui signifie utiliser une bonne IA pour éradiquer les pires abus de la technologie.

Vraiment, l’acquisition de ces compétences n’a en aucun cas besoin d’être un processus cynique ou négatif. Faire preuve d’une mentalité de confiance zéro peut être considéré comme une opportunité pour aiguiser sa pensée critique, son intuition et sa conscience. En nous posant, encore et encore, certaines questions clés – Cela a-t-il du sens ? Cela est-il suspect ? – nous rehaussons notre capacité à affronter non seulement les médias faux, mais le monde en général. Si il y a une ligne d’argent dans l’ère des deepfakes, c’est celle-ci. Nous sommes contraints de penser par nous-mêmes et de devenir plus empiriques dans notre vie quotidienne – et cela ne peut être qu’une bonne chose.

Nicos Vekiarides est le directeur général et co-fondateur de Attestiv. Il a passé les 20 dernières années dans l'informatique d'entreprise et le cloud, en tant que PDG et entrepreneur, en mettant sur le marché de nouvelles technologies innovantes. Son précédent startup, TwinStrata, une société de stockage cloud innovante où il a été pionnier du stockage intégré au cloud pour l'entreprise, a été acquise par EMC en 2014. Auparavant, il a mis sur le marché le premier appareil de virtualisation de stockage de l'industrie pour StorageApps, une société acquise par HP.