Connect with us

Outils de navigateur IA visant à reconnaître les deepfakes et autres médias faux

Intelligence artificielle

Outils de navigateur IA visant à reconnaître les deepfakes et autres médias faux

mm

Les efforts des entreprises technologiques pour lutter contre les fausses informations et les contenus faux sont passés à une vitesse supérieure ces derniers temps, alors que les technologies de génération de contenu faux sophistiquées comme les DeepFakes deviennent plus faciles à utiliser et plus raffinées. Une tentative à venir pour aider les gens à détecter et à lutter contre les deepfakes est RealityDefender, produit par la Fondation IA , qui s’est engagée à développer des agents et des assistants IA éthiques que les utilisateurs peuvent former pour effectuer diverses tâches.

Le projet le plus notable de la Fondation IA est une plateforme qui permet aux gens de créer leurs propres personnages numériques qui leur ressemblent et les représentent dans des espaces de réunion virtuels. La Fondation IA est supervisée par le Conseil mondial de l’IA et, dans le cadre de son mandat, elle doit anticiper les impacts négatifs potentiels des plateformes d’IA, puis essayer de devancer ces problèmes. Selon VentureBeat, l’un des outils que la Fondation IA a créés pour aider à la détection des deepfakes s’appelle Reality Defender. Reality Defender est un outil que une personne peut utiliser dans son navigateur Web (vérifiez), qui analysera les vidéos, les images et d’autres types de médias pour détecter les signes que les médias ont été falsifiés ou modifiés d’une manière ou d’une autre. On espère que l’outil aidera à contrer le flux croissant de deepfakes sur Internet, qui, selon certaines estimations, a doublé environ au cours des six derniers mois.

Reality Defender fonctionne en utilisant une variété d’algorithmes basés sur l’IA qui peuvent détecter des indices suggérant qu’une image ou une vidéo pourrait avoir été falsifiée. Les modèles d’IA détectent des signes subtils de tromperie et de manipulation, et les faux positifs que le modèle détecte sont étiquetés comme incorrects par les utilisateurs de l’outil. Les données sont ensuite utilisées pour réentraîner le modèle. Les entreprises d’IA qui créent des deepfakes non trompeurs ont leur contenu étiqueté avec une balise ou une filigrane “honnête IA” qui permet aux gens d’identifier facilement les faux générés par l’IA.

Reality Defender n’est qu’un des outils d’une suite d’outils et d’une plateforme d’IA entière que la Fondation IA tente de créer. La Fondation IA poursuit la création de Guardian AI, une plateforme de responsabilité construite sur le principe que les individus devraient avoir accès à des agents IA personnels qui travaillent pour eux et qui peuvent les aider à se protéger contre leur exploitation par des acteurs malveillants. En essence, la Fondation IA vise à la fois à étendre la portée de l’IA dans la société, en la rendant accessible à plus de gens, tout en protégeant contre les risques de l’IA.

Reality Defender n’est pas le seul nouveau produit alimenté par l’IA visant à réduire les fausses informations aux États-Unis. Un produit similaire s’appelle SurfSafe, qui a été créé par deux étudiants de premier cycle de l’UC Berkeley, Rohan Phadte et Ash Bhat. Selon The Verge, SurfSafe fonctionne en permettant à ses utilisateurs de cliquer sur un média qui les intéresse et le programme effectuera une recherche d’image inverse et essayera de trouver du contenu similaire provenant de sources de confiance sur Internet, en signalant les images qui sont connues pour être truquées.

Il est peu clair à quel point ces solutions seront efficaces à long terme. Le professeur du Dartmouth College et expert en sciences forensiques Hany Farid a été cité par The Verge comme disant qu’il est “extrêmement sceptique” que des systèmes comme Reality Defender fonctionneront de manière significative. Farid a expliqué qu’un des défis clés pour détecter les contenus faux est que les médias ne sont pas purement faux ou réels. Farid a expliqué :

“Il y a un continuum ; une gamme incroyablement complexe de problèmes à traiter. Certains changements sont sans importance, et d’autres altèrent fondamentalement la nature d’une image. Prétendre que nous pouvons former un IA pour repérer la différence est incroyablement naïf. Et prétendre que nous pouvons le crowdsourcer est encore plus naïf.”

De plus, il est difficile d’inclure des éléments de crowdsourcing, tels que l’étiquetage des faux positifs, car les humains sont généralement très mauvais pour identifier les images fausses. Les humains font souvent des erreurs et manquent de détails subtils qui marquent une image comme fausse. Il est également peu clair de la manière de traiter les acteurs de mauvaise foi qui font du trolling lorsqu’ils signalent du contenu.

Il semble probable que, pour être maximalement efficaces, les outils de détection de faux devront être combinés avec des efforts de littératie numérique qui enseignent aux gens à raisonner sur le contenu avec lequel ils interagissent en ligne.

Blogueur et programmeur avec des spécialités en Machine Learning et Deep Learning sujets. Daniel espère aider les autres à utiliser le pouvoir de l'IA pour le bien social.