Suivez nous sur

L'IA peut combattre la désinformation et les préjugés dans les actualités

Éthique

L'IA peut combattre la désinformation et les préjugés dans les actualités

mm

La désinformation et les préjugés dans l’information sont devenus l’un des plus grands défis auxquels la société a été confrontée ces dernières années. Des éléments tels que les opérations d’information, les deepfakes, l’influence financière et l’exploitation des tensions sociales sont de nouveaux outils utilisés à la fois par les individus et les acteurs étatiques du monde entier. 

La désinformation est un terme général désignant de fausses informations, et elle joue un rôle majeur dans la manipulation de l'opinion publique. En même temps, il est utilisé comme une attaque contre les dirigeants politiques et aggrave les séparations entre groupes dans différents pays. Plus que jamais, la désinformation frappe l'isoloir, et elle est devenue incroyablement efficace. 

La désinformation, qui est légèrement différente de la mésinformation, est une information délibérément trompeuse ou biaisée. Cela peut inclure des récits et des faits manipulés. Autrement dit, c'est de la propagande. 

Un rapport de 2019 de chercheurs de l'Université d'Oxford a détaillé les campagnes de désinformation organisées dans 70 pays différents, dont la Russie, la Chine, le Vietnam et le Guatemala. 

L'économie numérique a entraîné une augmentation de la désinformation et des préjugés dans les nouvelles, les technologies d'intelligence artificielle et les plateformes de médias sociaux devenant des moyens de les diffuser aux masses. 

Nous en avons vu de nombreux exemples. Par exemple, les deux précédentes élections présidentielles américaines ont été pleines de désinformation et de parti pris, et cela ne manquera pas de continuer à l'avenir. Les marchés financiers ont également fait l'objet de manipulations à court terme par le biais de la désinformation et des préjugés, et les affaires étrangères deviennent plus tendues en raison de leur utilisation. Les tensions sociales sont provoquées par de fausses informations contre les partisans et les opposants à des causes spécifiques, et les fausses nouvelles sévissent dans presque tous les pays.

Notre dépendance aux médias sociaux et aux algorithmes nous a rendus incroyablement vulnérables à la désinformation et aux préjugés, et il est devenu facile de manipuler de grands groupes de personnes. 

Selon un essai intitulé «Les préjugés rendent les gens vulnérables à la désinformation diffusée par les médias sociaux», publié par The Conversation, un réseau de médias à but non lucratif, il existe trois types de biais qui rendent l'écosystème des médias sociaux vulnérable à la désinformation intentionnelle et accidentelle. Il est important de reconnaître que la plupart de nos nouvelles proviennent maintenant des médias sociaux. 

Les trois types de biais sont : 

  1. Biais dans le cerveau : "Les biais cognitifs proviennent de la façon dont le cerveau traite les informations que chaque personne rencontre chaque jour."
  2. Préjugés dans la société : "Lorsque les gens se connectent directement avec leurs pairs, les préjugés sociaux qui guident leur sélection d'amis en viennent à influencer les informations qu'ils voient.
  3. Biais dans la machine : « Le troisième groupe de biais découle directement des algorithmes utilisés pour déterminer ce que les gens voient en ligne. Les plates-formes de médias sociaux et les moteurs de recherche les emploient. » 

Cette combinaison de préjugés a créé l'environnement idéal pour que les acteurs malveillants utilisent nos plateformes d'information actuelles comme moyen de diffuser des informations erronées. Mais il est important de reconnaître que les préjugés sont également présents en dehors de ce domaine. Les reportages et articles réguliers risquent d'être biaisés en raison des penchants particuliers d'un auteur ou d'une publication. Ce n'est pas nouveau. 

Solutions d'IA pour la désinformation et les biais

L'essor de l'intelligence artificielle nous a fourni de nombreux outils nouveaux et innovants qui peuvent être utilisés pour lutter contre la désinformation et les préjugés dans l'actualité.

Par exemple, lorsqu'elle est conçue correctement, l'IA peut détecter et supprimer efficacement certaines informations erronées et d'autres contenus problématiques en ligne. Il est déjà utilisé pour identifier les faux bots par des entreprises comme Google, Twitter et Facebook. Et les faux robots sont souvent utilisés pour diffuser des informations erronées et des informations biaisées. 

De nouveaux cadres d'IA doivent être explorés pour lutter contre ce problème, et ceux qui existent déjà doivent être améliorés car beaucoup se sont avérés problématiques. Ces problèmes commencent à devenir encore plus dangereux lorsque des conflits surviennent. Par exemple, les conflits militaires, comme l'actuel conflit russo-ukrainien, conduisent à la diffusion de fausses informations à un rythme incroyablement rapide. 

Il existe divers outils alimentés par l'IA à venir. Par exemple, CONNEXION NT, un développeur international de technologies, a récemment annoncé le lancement de son application d'agrégation d'actualités, NOOZ.AI. Le moteur d'analyse linguistique alimenté par l'IA vise à apporter de la transparence au biais polarisant que l'on trouve dans les médias d'information d'aujourd'hui. Il tente d'y parvenir en informant les lecteurs de l'influence des médias d'information avant de lire un article. 

« Les auteurs ou les journalistes ont tendance à adopter un parti pris particulier, souvent à l'insu du lecteur », indique le communiqué de presse de l'entreprise. « En connaissant le parti pris historique de l'auteur et des sources d'information, les consommateurs peuvent examiner l'article avec un esprit plus objectif et résister à la manipulation qui les pousse à penser d'une certaine manière sur un sujet particulier. » 

L'outil NOOZ.AI repose sur quatre piliers clés : 

  • Analyse d'opinion : Il aide les lecteurs à déterminer la présence de sentiments personnels, d'opinions, de croyances ou de jugements dans l'écriture d'un journaliste.

  • Analyse des sentiments: L'outil utilise l'analyse des sentiments pour aider les lecteurs à évaluer le soutien ou l'opposition d'un auteur au contenu général de l'actualité ou à un sujet spécifique.

  • Analyse de la propagande : Il peut détecter la désinformation potentielle en identifiant l'utilisation de jusqu'à 18 techniques de persuasion possibles.

  • Analyse de révision : Les lecteurs peuvent étudier l'évolution d'un reportage et sa manipulation de l'opinion et du sentiment au fil du temps. 

L'application fournit des scores pour chaque article, avec des scores d'opinion allant de 0 à 100 et des scores de sentiment allant de -100 à 100. Il suit également toutes les modifications de texte pour chaque révision et donne aux lecteurs la possibilité de comparer différentes versions. 

Selon Garry Paxinos, CTO chez NT CONNECT : 

« Les reportages biaisés sont une préoccupation majeure dans la société d'aujourd'hui. La désinformation est le mot à la mode le plus couramment (mal) utilisé. Mais la réalité est que le langage lui-même peut être utilisé pour manipuler et persuader le lecteur occasionnel. Par objectivement en analysant le langage, nous évitons biais subjectif trouve dans d'autres approches. Au lieu d'étiqueter subjectivement la désinformation, notre approche consiste à éclairer comment on peut être manipulé avec des titres exagérés, l'historique des révisions et le texte des articles.

Alex McFarland est un journaliste et écrivain en IA qui explore les derniers développements en matière d'intelligence artificielle. Il a collaboré avec de nombreuses startups et publications d'IA dans le monde entier.