Connect with us

Comment l’IA façonne l’avenir du dialogue démocratique

Intelligence artificielle

Comment l’IA façonne l’avenir du dialogue démocratique

mm

Dans le monde politiquement polarisé d’aujourd’hui, trouver un terrain d’entente sur des questions sociales et politiques complexes devient de plus en plus difficile. À mesure que les sociétés deviennent plus diverses, les désaccords sur des questions essentielles comme le changement climatique, l’immigration et la politique économique ne font que s’accroître. Rassembler les gens pour trouver un consensus sur des questions complexes nécessite souvent du temps, des ressources et un terrain d’entente où toutes les voix peuvent être entendues.

Les progrès récents de l’intelligence artificielle ont apporté de nouvelles possibilités pour que la technologie aide à faciliter des dialogues complexes sur des sujets divisifs. Les modèles de traitement du langage naturel (NLP) alimentés par l’IA, par exemple, sont devenus suffisamment sophistiqués pour interpréter un langage complexe et discerner les différences de sentiments et de perspectives. De plus, les systèmes d’IA sont conçus avec des fonctionnalités comme l’analyse des sentiments en temps réel, la détection des préjugés et les commentaires adaptatifs. Ces capacités les rendent particulièrement adaptés pour aider à faciliter des discussions équitables et équilibrées.

Ce potentiel a attiré l’attention des chercheurs de Google DeepMind pour explorer la promesse de l’IA dans la facilitation du discours civil. Inspirés par les idées du philosophe Jürgen Habermas, ils ont créé la “Habermas Machine” (HM), un outil pour soutenir le discours civil et aider les groupes à découvrir des valeurs partagées. L’article examine la question : L’IA peut-elle vraiment nous aider à trouver un terrain d’entente ? Il examine également comment la Habermas Machine (HM) peut faciliter la délibération démocratique.

La Habermas Machine

La Habermas Machine est un outil d’IA conçu pour analyser les opinions individuelles et créer une déclaration de groupe unifiée. La machine fonctionne comme une “médiation de caucus”. Les participants commencent par partager leurs pensées. L’IA combine ensuite ces pensées en un projet de déclaration. Ensuite, les participants examinent ce projet et fournissent des critiques. L’IA utilise ses entrées pour générer une déclaration révisée qui cherche à obtenir un accord plus large, en capturant à la fois les opinions majoritaires et les critiques minoritaires.

Cette machine utilise deux LLM spécialisés pour cette tâche. Le premier est un modèle génératif qui crée des déclarations reflétant les diverses vues du groupe. Le second est un modèle de récompense personnalisé qui évalue ces déclarations en fonction de la probabilité que chaque participant soit d’accord avec elles. Le modèle génératif est affiné à l’aide d’un fine-tuning supervisé, tandis que le modèle de récompense est amélioré de manière itérative en fonction des signaux de récompense.

La machine a été testée avec plus de 5 000 participants de tout le Royaume-Uni. Certains ont rejoint via une plateforme de crowdsourcing, tandis que d’autres ont été recrutés par la Sortition Foundation, une organisation à but non lucratif qui organise des assemblées de citoyens. Les participants ont été divisés en groupes, et les tests ont eu lieu en deux phases. Tout d’abord, la machine a résumé les opinions collectives. Ensuite, elle a médiatisé entre les groupes pour aider à identifier un terrain d’entente.

Le potentiel de l’IA pour découvrir un terrain d’entente pour le dialogue démocratique

L’étude met en évidence le potentiel de l’IA pour trouver un terrain d’entente dans le dialogue démocratique. L’une des principales conclusions était que les discussions médiatisées par l’IA ont conduit les participants à se rapprocher de points de vue partagés. Contrairement aux discussions non médiatisées, qui ont souvent renforcé les croyances existantes, l’IA a aidé les participants à reconsidérer leurs positions, les rapprochant d’un terrain d’entente. Cette capacité à encourager l’alignement montre que l’IA pourrait être un outil précieux pour traiter des questions complexes et divisives.

L’étude a également révélé que les participants et les juges indépendants ont évalué les déclarations générées par l’IA de manière plus favorable que celles produites par des médiateurs humains. Ils ont trouvé que les déclarations de l’IA étaient plus précises, plus informatives et plus équitables. Il est important de noter que l’IA n’a pas simplement amplifié les opinions majoritaires ; elle a également donné du poids aux points de vue minoritaires. Cette fonctionnalité a aidé à prévenir la “tyrannie de la majorité” et a garanti que les voix dissidentes soient entendues. L’inclusion de ces voix dissidentes est cruciale, en particulier dans les débats sensibles, car une représentation équitable aide à prévenir les malentendus et à encourager des discussions équilibrées.

Applications réelles de l’IA dans la démocratie délibérative

Les implications de la délibération médiatisée par l’IA sont importantes pour les scénarios réels. Par exemple, l’IA peut améliorer les discussions sur les politiques, la résolution des conflits, les négociations de contrats et les assemblées de citoyens. Sa capacité à favoriser un dialogue équilibré en fait un outil précieux pour les gouvernements, les organisations et les communautés qui cherchent à aborder des questions complexes impliquant des parties prenantes diverses.

Pour tester l’efficacité du modèle dans un cadre pratique, les chercheurs ont organisé une assemblée virtuelle de citoyens avec un échantillon représentatif de résidents du Royaume-Uni. Cette assemblée s’est concentrée sur des sujets divisifs tels que la politique d’immigration et l’action climatique. Après des discussions médiatisées par l’IA, les participants ont montré un déplacement notable vers un consensus, sans biais de l’IA influençant leurs opinions. Ces résultats mettent en évidence la manière dont la médiation par l’IA peut potentiellement guider la prise de décision collective sur des questions sociales critiques tout en minimisant les biais.

Limitations et considérations éthiques

Bien que la médiation par l’IA montre un grand potentiel, elle a des limites notables. Par exemple, le modèle d’IA utilisé dans cette étude manque de capacités de vérification des faits, ce qui signifie qu’il repose lourdement sur la qualité des entrées des participants. De plus, la délibération assistée par l’IA nécessite une conception soigneuse pour éviter les discours nocifs ou improductifs. Une autre considération importante est le rôle éthique de l’IA dans les processus démocratiques. Certaines personnes peuvent être prudentes lorsqu’elles utilisent l’IA dans les discussions politiques, craignant que les algorithmes puissent influencer involontairement les résultats. Par conséquent, une surveillance continue et un cadre éthique clair sont essentiels pour garantir que l’IA est utilisée de manière à respecter les valeurs démocratiques.

En résumé

Les chercheurs de Google DeepMind ont souligné que l’IA a le potentiel de transformer le dialogue démocratique. Ils proposent que les outils d’IA, comme la Habermas Machine, peuvent aider les individus à trouver un terrain d’entente sur des questions complexes. Même si l’IA peut rendre les conversations plus accessibles et plus inclusives, il est crucial de l’utiliser de manière responsable pour sauvegarder les valeurs démocratiques.

Si elle est développée de manière réfléchie, l’IA pourrait jouer un rôle crucial dans la facilitation de la compréhension collective. Elle peut aider à aborder des questions sociales urgentes en trouvant un terrain d’entente entre des perspectives diverses. À mesure que la technologie d’IA progresse, des modèles comme la Habermas Machine pourraient devenir essentiels pour naviguer dans les défis de la démocratie moderne, en simplifiant et en élargissant les processus de délibération pour des groupes plus étendus et divers.

Dr. Tehseen Zia est un professeur associé titulaire à l'Université COMSATS d'Islamabad, titulaire d'un doctorat en intelligence artificielle de l'Université technique de Vienne, en Autriche. Spécialisé en intelligence artificielle, apprentissage automatique, science des données et vision par ordinateur, il a apporté des contributions significatives avec des publications dans des revues scientifiques réputées. Dr. Tehseen a également dirigé divers projets industriels en tant que chercheur principal et a servi en tant que consultant en intelligence artificielle.