Connect with us

Détection de discours de haine par l’IA pour lutter contre les stéréotypes et la désinformation

Intelligence artificielle

Détection de discours de haine par l’IA pour lutter contre les stéréotypes et la désinformation

mm
Featured Blog Image-AI Hate Speech Detection to Combat Stereotyping & Disinformation

Aujourd’hui, l’internet est la colonne vertébrale de la communication et de la connexion mondiales. Cependant, avec cette connectivité en ligne sans précédent, nous sommes également témoins du côté sombre du comportement humain, à savoir les discours de haine, les stéréotypes et les contenus préjudiciables. Ces problèmes ont envahi les médias sociaux, les forums en ligne et d’autres espaces virtuels, infligeant des dommages durables aux individus et à la société. D’où la nécessité de détecter les discours de haine.

Selon le Pew Research Center, 41 % des adultes américains déclarent avoir personnellement rencontré des abus sur internet, et 25 % sont victimes de harcèlement grave.

Pour favoriser un environnement en ligne plus positif et plus respectueux, il est impératif d’adopter des mesures proactives et de tirer parti du pouvoir de la technologie. À cet égard, l’intelligence artificielle (IA) offre des solutions innovantes pour détecter et lutter contre les discours de haine et les stéréotypes.

Limitations des techniques actuelles d’atténuation et nécessité de mesures proactives

Les mesures actuelles pour atténuer les discours de haine sont limitées. Elles ne peuvent pas empêcher efficacement la propagation de contenus préjudiciables en ligne. Ces limites incluent :

  • Les approches réactives, qui s’appuient principalement sur la modération humaine et les algorithmes statiques, ont du mal à suivre le rythme de la diffusion rapide des discours de haine.
  • Le volume énorme de contenu en ligne submerge les modérateurs humains, ce qui entraîne des réponses retardées et des cas de rhétorique préjudiciable non détectés.
  • De plus, la compréhension contextuelle et les nuances linguistiques en constante évolution posent des défis aux systèmes automatisés pour identifier et interpréter avec précision les cas de discours de haine.

Pour remédier à ces limites et favoriser un environnement en ligne plus sûr, il est impératif de passer à des mesures proactives. En adoptant des mesures alimentées par l’IA, nous pouvons renforcer nos communautés numériques, encourageant l’inclusivité et un monde en ligne cohérent.

Identification et signalisation des discours de haine à l’aide de l’IA

Dans la lutte contre les discours de haine, l’IA émerge comme un allié redoutable, avec des algorithmes d’apprentissage automatique (ML) pour identifier et signaler rapidement et avec précision les contenus préjudiciables. En analysant de vastes quantités de données, les modèles d’IA peuvent apprendre à reconnaître les modèles et les nuances linguistiques associés aux discours de haine, leur permettant de catégoriser et de répondre aux contenus offensants de manière efficace.

Pour former des modèles d’IA pour une détection précise des discours de haine, des techniques d’apprentissage supervisé et non supervisé sont utilisées. L’apprentissage supervisé consiste à fournir des exemples étiquetés de discours de haine et de contenus non préjudiciables pour enseigner au modèle à distinguer entre les deux catégories. En revanche, les méthodes d’apprentissage non supervisé et semi-supervisé utilisent des données non étiquetées pour développer la compréhension du modèle des discours de haine.

Utilisation de techniques de contre-discours de l’IA pour lutter contre les discours de haine

Le contre-discours émerge comme une stratégie puissante pour combattre les discours de haine en remettant directement en question et en s’adressant aux récits préjudiciables. Il s’agit de générer du contenu persuasif et informatif pour promouvoir l’empathie, la compréhension et la tolérance. Il donne aux individus et aux communautés les moyens de participer activement à la création d’un environnement numérique positif.

Bien que les détails spécifiques des modèles de contre-discours individuels puissent varier en fonction de la technologie et des approches de développement de l’IA, certaines fonctionnalités et techniques communes incluent :

  • Génération de langage naturel (NLG) : Les modèles de contre-discours utilisent la NLG pour produire des réponses similaires à celles des humains, sous forme écrite ou orale. Les réponses sont cohérentes et contextuellement pertinentes par rapport à l’instance spécifique de discours de haine qu’elles contrent.
  • Analyse des sentiments : Les modèles de contre-discours de l’IA utilisent l’analyse des sentiments pour évaluer le ton émotionnel des discours de haine et adapter leurs réponses en conséquence. Cela garantit que le contre-discours est à la fois percutant et empathique.
  • Compréhension contextuelle : En analysant le contexte entourant les discours de haine, les modèles de contre-discours peuvent générer des réponses qui abordent des problèmes ou des malentendus spécifiques, contribuant ainsi à un contre-discours plus efficace et plus ciblé.
  • Diversité des données : Pour éviter les préjugés et assurer l’équité, les modèles de contre-discours sont formés sur des ensembles de données diversifiés représentant diverses perspectives et nuances culturelles. Cela aide à générer des réponses inclusives et sensibles sur le plan culturel.
  • Apprentissage à partir de la rétroaction des utilisateurs : Les modèles de contre-discours peuvent s’améliorer en continu en apprenant à partir de la rétroaction des utilisateurs. Cette boucle de rétroaction permet au modèle d’affiner ses réponses en fonction des interactions dans le monde réel, améliorant ainsi son efficacité avec le temps.

Exemples de lutte contre les discours de haine à l’aide de l’IA

Un exemple concret de technique de contre-discours de l’IA est la “Redirect Method” développée par Google’s Jigsaw et Moonshot CVE. La Redirect Method utilise la publicité ciblée pour atteindre les individus sensibles aux idéologies extrémistes et aux discours de haine. Cette approche alimentée par l’IA vise à dissuader les individus de s’engager dans des contenus préjudiciables et à promouvoir l’empathie, la compréhension et un éloignement des croyances extrémistes.

Les chercheurs ont également développé un nouveau modèle d’IA appelé BiCapsHate qui agit comme un outil puissant contre les discours de haine en ligne, comme rapporté dans IEEE Transactions on Computational Social Systems. Il prend en charge une analyse bidirectionnelle du langage, améliorant la compréhension du contexte pour une détermination précise du contenu haineux. Cette avancée vise à atténuer l’impact préjudiciable des discours de haine sur les médias sociaux, offrant le potentiel d’interactions en ligne plus sûres.

De même, les chercheurs de l’University of Michigan ont utilisé l’IA pour lutter contre les discours de haine en ligne en utilisant une approche appelée Rule By Example (RBE). En utilisant l’apprentissage profond, cette approche apprend les règles de classification des discours de haine à partir d’exemples de contenus haineux. Ces règles sont appliquées au texte d’entrée pour identifier et prédire avec précision les discours de haine en ligne.

Considérations éthiques pour les modèles de détection de discours de haine

Pour maximiser l’efficacité des modèles de contre-discours alimentés par l’IA, les considérations éthiques sont primordiales. Cependant, il est important de trouver un équilibre entre la liberté d’expression et l’interdiction de la diffusion de contenus préjudiciables pour éviter la censure.

La transparence dans le développement et le déploiement des modèles de contre-discours de l’IA est essentielle pour instaurer la confiance et la responsabilité parmi les utilisateurs et les parties prenantes. Assurer également l’équité est tout aussi important, car les préjugés dans les modèles d’IA peuvent perpétuer la discrimination et l’exclusion.

Par exemple, l’IA conçue pour identifier les discours de haine peut involontairement amplifier les préjugés raciaux. Une étude a révélé que les principaux modèles d’IA de détection de discours de haine étaient 1,5 fois plus susceptibles de signaler les tweets des Afro-Américains comme offensants. Ils sont 2,2 fois plus susceptibles de signaler les tweets comme discours de haine qui sont rédigés en anglais afro-américain. Des preuves similaires sont issues d’une étude de 155 800 publications liées aux discours de haine sur Twitter, mettant en évidence le défi de l’atténuation des préjugés raciaux dans la modération de contenu de l’IA.

Dans une autre étude, les chercheurs ont testé quatre systèmes d’IA pour la détection de discours de haine et ont constaté que tous avaient du mal à identifier avec précision les phrases toxiques. Pour diagnostiquer les problèmes exacts dans ces modèles de détection de discours de haine, ils ont créé une taxonomie de 18 types de discours de haine, notamment des insultes et des menaces verbales. Ils ont également mis en évidence 11 scénarios qui déstabilisent l’IA, tels que l’utilisation de jurons dans des déclarations non haineuses. À la suite de cela, l’étude a produit HateCheck, un ensemble de données open source de près de 4 000 exemples, visant à améliorer la compréhension des nuances des discours de haine pour les modèles d’IA.

Sensibilisation et littératie numérique

Lutter contre les discours de haine et les stéréotypes exige une approche proactive et multidimensionnelle. La sensibilisation et la promotion de la littératie numérique sont donc essentielles pour lutter contre les discours de haine et les stéréotypes.

Éduquer les individus sur l’impact des contenus préjudiciables favorise une culture d’empathie et de comportement en ligne responsable. Les stratégies qui encouragent la pensée critique permettent aux utilisateurs de faire la distinction entre les discours légitimes et les discours de haine, réduisant ainsi la propagation de récits préjudiciables. De plus, équiper les utilisateurs des compétences pour identifier et répondre efficacement aux discours de haine est vital. Cela les autorise à remettre en question et à contrer la rhétorique préjudiciable, contribuant ainsi à un environnement numérique plus sûr et plus respectueux.

À mesure que la technologie de l’IA évolue, le potentiel d’aborder les discours de haine et les stéréotypes avec plus de précision et d’impact augmente de manière exponentielle. Il est donc important de consolider le contre-discours alimenté par l’IA comme un outil puissant pour favoriser l’empathie et l’engagement positif en ligne.

Pour plus d’informations sur les tendances et la technologie de l’IA, visitez unite.ai.

Haziqa est un Data Scientist avec une expérience approfondie dans la rédaction de contenu technique pour les entreprises d'IA et de SaaS.