Éthique
Les chercheurs constatent que les modèles d’IA peuvent influencer les personnes pour prendre des décisions contraires à l’éthique

Une équipe de chercheurs a récemment investigé le potentiel de l’IA pour corrompre les personnes et les influencer pour prendre des décisions contraires à l’éthique. Les chercheurs ont investigué comment les interactions avec des systèmes basés sur le modèle GPT-2 d’OpenAI pourraient potentiellement influencer les personnes pour prendre des décisions contraires à l’éthique, même lorsqu’elles sont conscientes que la source des conseils était un système d’IA.
Les systèmes d’IA deviennent de plus en plus omniprésents et leur influence s’étend de plus en plus. Les systèmes d’IA influencent les décisions des personnes, étant utilisés pour tout, des recommandations de films aux recommandations de partenaires romantiques. Compte tenu de l’influence importante de l’IA sur la vie des personnes, il est important de considérer comment l’IA pourrait influencer les personnes pour prendre des décisions contraires à l’éthique et enfreindre les lignes directrices morales. C’est particulièrement vrai étant donné que les modèles d’IA deviennent constamment plus sophistiqués.
Les scientifiques sociaux et les spécialistes des données sont de plus en plus préoccupés par le fait que les modèles d’IA pourraient être utilisés pour diffuser des informations nuisibles et des désinformations. Un article récent publié par des chercheurs de l’Institut d’études internationales de Middlebury, du Centre sur le terrorisme, l’extrémisme et la lutte contre le terrorisme (CTEC), a constaté que le modèle GPT-3 d’OpenAI pourrait être utilisé pour générer des textes influents capables de radicaliser les personnes, les poussant vers des « idéologies et comportements extrémistes violents de droite ».
Une étude menée par une équipe de chercheurs de l’Institut Max Planck, de l’Université d’Amsterdam, de l’Université de Cologne et de l’École de gestion Otto Beisheim a cherché à déterminer à quel point un système d’IA pouvait influencer les décisions des personnes en ce qui concerne les choix contraires à l’éthique. Afin d’explorer comment un système d’IA pourrait « corrompre » une personne, les chercheurs ont utilisé un système basé sur le modèle GPT-2 d’OpenAI. Selon VentureBeat, les auteurs de l’article ont formé un modèle basé sur GPT2 pour générer des conseils à la fois « favorisant la malhonnêteté » et « favorisant l’honnêteté ». Les données ont été formées à partir de contributions de 400 participants différents, et par la suite, l’équipe de recherche a recruté plus de 1500 personnes pour interagir avec les modèles d’IA dispensant des conseils.
Les participants à l’étude ont été invités à recevoir des conseils du modèle, puis à effectuer une tâche conçue pour capturer soit un comportement malhonnête, soit un comportement honnête. Les participants à l’étude ont été regroupés par paires de deux, et dans ces paires, ils ont joué à un jeu de lancer de dés. Le premier participant a lancé un dé et a rapporté le résultat du lancer de dé. Le deuxième participant a reçu le résultat du lancer de dé du premier participant, puis il a lancé un dé lui-même. Le deuxième participant a lancé le dé en privé et était seul responsable de rapporter son propre résultat, lui donnant l’opportunité de mentir sur le résultat du lancer de dé. Si les dés lancés par les deux participants correspondaient, les deux participants ont été payés. Les participants ont également été payés davantage si leurs lancers correspondants étaient plus élevés. Si les valeurs rapportées ne correspondaient pas, les sujets n’ont pas été payés.
Les participants à l’étude ont été assignés aléatoirement à l’une de deux groupes différents. Un groupe a eu l’opportunité de lire des conseils favorisant l’honnêteté, tandis que l’autre groupe a lu des conseils favorisant la malhonnêteté. Les extraits de conseils ont été rédigés à la fois par des humains et des IA. Les participants ont également été divisés en fonction de leur niveau de connaissance sur la source des conseils. Il y avait une chance de 50-50 que tout participant donné soit informé de la source des conseils, de sorte que la moitié des participants de chaque groupe savaient que la source des conseils était soit un système d’IA, soit un humain, tandis que l’autre moitié était tenue dans l’ignorance. Le deuxième groupe de personnes a toutefois eu la possibilité de gagner une prime pour avoir correctement deviné la source des conseils.
La recherche a révélé que lorsque les conseils générés par l’IA correspondent aux préférences d’une personne, ils suivent les conseils, même lorsqu’ils savent que les conseils ont été générés par un système d’IA. Selon les chercheurs, il y avait souvent des discordances entre les préférences déclarées et les comportements réels, ce qui rend important de considérer comment les algorithmes peuvent influencer les comportements humains.
L’équipe de recherche a expliqué que leur étude démontre la nécessité de tester comment un système d’IA pourrait influencer les actions d’une personne lorsqu’il s’agit de déployer de manière éthique un modèle d’IA. De plus, ils mettent en garde contre le fait que les spécialistes de l’éthique de l’IA et les chercheurs devraient se préparer à la possibilité que l’IA puisse être utilisée par des acteurs malveillants pour corrompre les autres. Comme l’a écrit l’équipe de recherche :
« L’IA pourrait être une force pour le bien si elle parvient à convaincre les personnes d’agir de manière plus éthique. Cependant, nos résultats révèlent que les conseils d’IA ne parviennent pas à accroître l’honnêteté. Les conseillers d’IA peuvent servir de boucs émissaires auxquels on peut détourner (une partie de) la faute morale de la malhonnêteté. De plus … dans le contexte de la prise de conseils, la transparence sur la présence algorithmique ne suffit pas pour atténuer son préjudice potentiel. »












