Connect with us

Intelligence artificielle

Les ingénieurs en intelligence artificielle développent une méthode capable de détecter l’intention de ceux qui diffusent des informations fausses

mm

Faire face aux informations fausses à l’ère numérique est un problème complexe. Non seulement les informations fausses doivent-elles être identifiées, étiquetées et corrigées, mais l’intention de ceux qui sont responsables de l’allégation doit également être distinguée. Une personne peut diffuser involontairement des informations fausses, ou simplement donner son opinion sur une question même si elle est plus tard rapportée comme un fait. Récemment, une équipe de chercheurs et d’ingénieurs en intelligence artificielle de Dartmouth a créé un cadre qui peut être utilisé pour dériver l’opinion à partir de rapports de “fausses nouvelles”.

Comme le rapporte ScienceDaily, l’étude de l’équipe de Dartmouth a été publiée récemment dans le Journal of Experimental & Theoretical Artificial Intelligence. Alors que des études antérieures ont tenté d’identifier les fausses nouvelles et de lutter contre la tromperie, il s’agit peut-être de la première étude qui visait à identifier l’intention de l’orateur dans un article de presse. Alors qu’une histoire vraie peut être tordue en différentes formes trompeuses, il est important de distinguer si la tromperie était intentionnelle ou non. L’équipe de recherche soutient que l’intention compte lorsqu’il s’agit d’informations fausses, car la tromperie n’est possible que si l’intention de tromper était présente. Si un individu n’a pas réalisé qu’il diffusait des informations fausses ou s’il donnait simplement son opinion, il ne peut y avoir de tromperie.

Eugene Santos Jr., professeur d’ingénierie à la Thayer School of Engineering de Dartmouth, a expliqué à ScienceDaily pourquoi leur modèle tente de distinguer l’intention trompeuse :

“L’intention trompeuse de tromper les auditeurs intentionnellement pose une menace beaucoup plus grande que les erreurs involontaires. À notre connaissance, notre algorithme est la seule méthode qui détecte la tromperie et qui discrimine en même temps les actes malveillants des actes bénins.”

Pour construire leur modèle, l’équipe de recherche a analysé les caractéristiques de la raison trompeuse. L’algorithme résultant pouvait distinguer l’intention de tromper des autres formes de communication en se concentrant sur les discordances entre les arguments passés d’une personne et ses déclarations actuelles. Le modèle construit par l’équipe de recherche nécessite de grandes quantités de données qui peuvent être utilisées pour mesurer à quel point une personne s’écarte de ses arguments passés. Les données de formation que l’équipe a utilisées pour former leur modèle consistaient en des données tirées d’un sondage d’opinions sur des sujets controversés. Plus de 100 personnes ont donné leur opinion sur ces questions controversées. Des données ont également été extraites de critiques de 20 hôtels différents, consistant en 400 critiques fictives et 800 critiques réelles.

Selon Santos, le cadre développé par les chercheurs pourrait être affiné et appliqué par les organisations de presse et les lecteurs, afin de leur permettre d’analyser le contenu des articles de “fausses nouvelles”. Les lecteurs pourraient examiner les articles pour la présence d’opinions et déterminer par eux-mêmes si un argument logique a été utilisé. Santos a également déclaré que l’équipe souhaite examiner l’impact des informations fausses et les effets d’entraînement qu’elles ont.

La culture populaire dépeint souvent les comportements non verbaux comme les expressions faciales comme des indicateurs que quelqu’un ment, mais les auteurs de l’étude notent que ces indices de comportement ne sont pas toujours des indicateurs fiables de mensonge. Deqing Li, co-auteur de l’article, a expliqué que leur recherche a montré que les modèles basés sur l’intention de raisonnement sont de meilleurs indicateurs de mensonge que les différences de comportement et verbales. Li a expliqué que les modèles d’intention de raisonnement “sont meilleurs pour distinguer les mensonges intentionnels des autres types de distorsion d’information”.

Le travail des chercheurs de Dartmouth n’est pas la seule avancée récente en ce qui concerne la lutte contre les informations fausses avec l’intelligence artificielle. Les articles de presse avec des titres de type “clickbait” masquent souvent des informations fausses. Par exemple, ils impliquent souvent qu’une chose s’est produite alors qu’un autre événement s’est réellement produit.

Comme le rapporte AINews, une équipe de chercheurs de l’Université d’État de l’Arizona et de l’Université de Pennsylvanie a collaboré pour créer un intelligence artificielle capable de détecter les titres de type “clickbait”. Les chercheurs ont demandé aux gens d’écrire leurs propres titres de type “clickbait” et ont également écrit un programme pour générer des titres de type “clickbait”. Les deux formes de titres ont ensuite été utilisées pour former un modèle qui pouvait détecter efficacement les titres de type “clickbait”, qu’ils aient été écrits par des machines ou des personnes.

Selon les chercheurs, leur algorithme était d’environ 14,5 % plus précis pour détecter les titres de type “clickbait” que les autres intelligences artificielles l’avaient été dans le passé. Le chercheur principal du projet et professeur agrégé à la Faculté des sciences et de la technologie de l’information de Penn State, Dongwon Lee, a expliqué comment leur expérience démontre l’utilité de la génération de données avec une intelligence artificielle et de les réinjecter dans un pipeline de formation.

“Ce résultat est tout à fait intéressant car nous avons réussi à démontrer que les données de formation de type ‘clickbait’ générées par machine peuvent être réinjectées dans le pipeline de formation pour former une grande variété de modèles d’apprentissage automatique à des performances améliorées”, a expliqué Lee.

Blogueur et programmeur avec des spécialités en Machine Learning et Deep Learning sujets. Daniel espère aider les autres à utiliser le pouvoir de l'IA pour le bien social.