Suivez nous sur

Les outils du navigateur AI visent à reconnaître les deepfakes et autres faux médias

Intelligence Artificielle

Les outils du navigateur AI visent à reconnaître les deepfakes et autres faux médias

mm

Les efforts déployés par les entreprises technologiques pour lutter contre la désinformation et les faux contenus se sont intensifiés ces derniers temps, à mesure que les technologies sophistiquées de génération de faux contenus comme DeepFakes deviennent plus faciles à utiliser et plus raffinées. RealityDefender, produit par RealityDefender, est une tentative à venir pour aider les gens à détecter et à combattre les deepfakes. la Fondation IA, qui s'est engagé à développer des agents et des assistants d'IA éthiques que les utilisateurs peuvent former pour accomplir diverses tâches.

Le projet le plus remarquable de la AI Foundation est une plate-forme qui permet aux gens de créer leurs propres personnages numériques qui leur ressemblent et de les représenter dans des espaces de rencontre virtuels. La AI Foundation est supervisée par le Global AI Council et, dans le cadre de son mandat, elle doit anticiper les éventuels impacts négatifs des plateformes d'IA, puis essayer de devancer ces problèmes. Tel que rapporté par VentureBeat, L'un des outils que la Fondation AI a créé pour aider à la détection des deepfakes est surnommé Reality Defender. Reality Defender est un outil qu'une personne peut utiliser dans son navigateur Web (vérifiez cela), qui analysera les vidéos, les images et d'autres types de médias pour détecter les signes indiquant que le média a été truqué ou modifié d'une manière ou d'une autre. On espère que l'outil aidera à contrer le flux croissant de deepfakes sur Internet, qui, selon certaines estimations, a à peu près doublé au cours des six derniers mois.

Le défenseur de la réalité fonctionne en utilisant une variété d'algorithmes basés sur l'IA qui peuvent détecter des indices suggérant qu'une image ou une vidéo pourrait avoir été truquée. Les modèles d'IA détectent des signes subtils de supercherie et de manipulation, et les faux positifs détectés par le modèle sont étiquetés comme incorrects par les utilisateurs de l'outil. Les données sont ensuite utilisées pour recycler le modèle. Les entreprises d'IA qui créent des deepfakes non trompeurs voient leur contenu étiqueté avec une étiquette ou un filigrane "AI honnête" qui permet aux gens d'identifier facilement les contrefaçons générées par l'IA.

Reality Defender n'est qu'un outil parmi une suite d'outils et une plate-forme complète de responsabilité de l'IA que AI Foundation tente de créer. AI Foundation poursuit la création de Guardian AI, une plate-forme de responsabilité basée sur le précepte selon lequel les individus devraient avoir accès à des agents personnels d'IA qui travaillent pour eux et qui peuvent aider à se prémunir contre leur exploitation par de mauvais acteurs. Essentiellement, AI Foundation vise à la fois à étendre la portée de l'IA dans la société, en l'apportant à plus de personnes, tout en se prémunissant contre les risques de l'IA.

Reality Defender n'est pas le seul nouveau produit basé sur l'IA visant à réduire la désinformation sur les États-Unis. Un produit similaire s'appelle SurfSafe, qui a été créé par deux étudiants de premier cycle de l'UC Berkeley, Rohan Phadte et Ash Bhat. Selon The Verge, SurfSafe fonctionne en permettant à ses utilisateurs de cliquer sur un média qui les intéresse et le programme effectuera une recherche d'image inversée et essaiera de trouver un contenu similaire à partir de diverses sources fiables sur Internet, en signalant les images connues pour être trafiqué.

On ne sait pas à quel point ces solutions seront efficaces à long terme. Professeur au Dartmouth College et expert en médecine légale Hany Farid a été cité par The Verge en disant qu'il est "extrêmement sceptique" sur le fait que des systèmes tels que Reality Defender fonctionneront de manière significative. Farid a expliqué que l'un des principaux défis liés à la détection de faux contenus est que les médias ne sont pas purement faux ou réels. Farid a expliqué :

« Il y a un continuum ; une gamme incroyablement complexe de questions à traiter. Certains changements n'ont pas de sens, et certains modifient fondamentalement la nature d'une image. Prétendre que nous pouvons entraîner une IA à repérer la différence est incroyablement naïf. Et prétendre que nous pouvons faire du crowdsourcing, c'est encore plus vrai.

De plus, il est difficile d'intégrer des éléments de crowdsourcing, comme le marquage des faux positifs, car les humains sont généralement peu doués pour identifier les fausses images. Ils commettent souvent des erreurs et passent à côté de détails subtils qui signalent une image comme fausse. Il est également difficile de savoir comment gérer les acteurs de mauvaise foi qui trollent lorsqu'ils signalent du contenu.

Il semble probable que, pour être efficaces au maximum, les outils de détection de faux devront être combinés avec des efforts de littératie numérique qui enseignent aux gens comment raisonner sur le contenu avec lequel ils interagissent en ligne.

Blogueur et programmeur spécialisé dans Machine Learning L'apprentissage en profondeur les sujets. Daniel espère aider les autres à utiliser le pouvoir de l'IA pour le bien social.