Intelligence artificielle
Un modèle d’IA peut identifier les diffuseurs de désinformation avant qu’ils n’agissent

Un modèle d’IA créé par des chercheurs de l’Université de Sheffield peut potentiellement déterminer quels utilisateurs de Twitter publieront de la désinformation avant qu’ils ne le fassent réellement. Si le modèle se révèle fiable, il pourrait être utilisé pour compléter les méthodes existantes de lutte contre la désinformation sur les médias sociaux.
Selon TechXplore, l’étude a été menée par des chercheurs de l’Université de Sheffield, du département d’informatique, notamment Dr. Nikos Aletras et Yida Mu. L’étude a été publiée dans la revue PeerJ et elle détaille les méthodes utilisées pour prédire si un utilisateur de médias sociaux est susceptible de diffuser de la désinformation en publiant du contenu provenant de sources d’information non fiables.
L’équipe de recherche a collecté plus d’un million de tweets de plus de 6 000 utilisateurs de Twitter, tous accessibles publiquement. L’équipe a appliqué des techniques de traitement automatique des langues pour préparer les données à la formation d’un modèle d’IA. Le modèle d’IA était un modèle de classification binaire, étiquetant les utilisateurs comme susceptibles de partager des informations provenant de sources non fiables ou non susceptibles de le faire. Après que le modèle ait été formé sur les données, il a pu atteindre une précision de classification d’environ 79,7 %.
Lors de l’analyse des résultats des performances du modèle, les chercheurs ont constaté que les utilisateurs qui utilisaient abondamment un langage impoli et qui tweetaient constamment sur la religion et la politique étaient plus susceptibles de publier des informations provenant de sources non fiables. En particulier, il y avait un usage important de mots comme « libéral », « média », « gouvernement », « Israël » et « islam ». En revanche, les utilisateurs qui publiaient des informations provenant de sources fiables tendaient à utiliser des mots comme « je vais », « je veux », « j’ai envie », « humeur », « excité » et « anniversaire ». Au-delà de cela, ils partageaient généralement des histoires sur leur vie personnelle, telles que des interactions avec des amis, leurs émotions ou des informations sur leurs hobbies.
Les résultats de l’étude pourraient aider les entreprises de médias sociaux comme Facebook, Reddit et Twitter à concevoir de nouvelles façons de lutter contre la propagation de la désinformation en ligne. La recherche pourrait également aider les psychologues et les sociologues à mieux comprendre le comportement qui conduit à la propagation massive de la désinformation au sein d’un réseau social.
Comme l’a expliqué Aletras selon TechXplore, les médias sociaux se sont transformés en l’un des principaux moyens par lesquels les gens obtiennent leurs actualités. Des millions d’utilisateurs à travers le monde obtiennent leurs actualités via Facebook et Twitter chaque jour, mais ces plateformes sont également devenues des outils pour diffuser la désinformation au sein de la société. Aletras a poursuivi en expliquant qu’il existait une « corrélation entre l’utilisation d’un langage impoli et la diffusion de contenu non fiable qui peut être attribuée à une hostilité politique en ligne élevée ».
Selon Mu, analyser le comportement des utilisateurs qui partagent des informations non fiables peut aider les plateformes de médias sociaux en complétant les méthodes de vérification des faits existantes et en modélisant la désinformation au niveau de l’utilisateur. Comme Mu l’a dit via TechXplore :
« Étudier et analyser le comportement des utilisateurs qui partagent du contenu provenant de sources d’actualités non fiables peut aider les plateformes de médias sociaux à prévenir la propagation de fausses nouvelles au niveau de l’utilisateur, en complétant les méthodes de vérification des faits existantes qui fonctionnent au niveau du message ou de la source d’actualités. »
La recherche menée par Aletras et Mu pourrait être un exemple d’utilisation de l’IA pour lutter contre la désinformation générée par l’IA. Les derniers mois ont vu une augmentation de la désinformation entourant la politique locale et nationale, avec une grande partie du contenu généré et diffusé par des algorithmes d’IA. Des réseaux de neurones profonds ont été utilisés pour construire des photographies réalistes et des profils de comptes fictifs qui servent de diffuseurs de fausses nouvelles. La recherche d’Aletras et Mu pourrait aider les entreprises de médias sociaux à déterminer quels comptes sont faux, des comptes de bots créés dans le but de diffuser de la propagande et de la désinformation nuisibles.
