Intelligence artificielle
L’IA peut éviter des comportements indésirables spécifiques avec de nouveaux algorithmes

Alors que les algorithmes et les systèmes d’intelligence artificielle deviennent de plus en plus sophistiqués et prennent des responsabilités plus importantes, il devient de plus en plus important de s’assurer que les systèmes d’IA évitent les comportements dangereux et indésirables. Récemment, une équipe de chercheurs de l’Université du Massachusetts Amherst et de Stanford a publié un article qui démontre comment les comportements spécifiques de l’IA peuvent être évités, grâce à une technique qui élabore des instructions mathématiques précises qui peuvent être utilisées pour ajuster le comportement d’un système d’IA.
Selon TechXplore, la recherche était basée sur l’hypothèse que les comportements injustes ou non sûrs peuvent être définis avec des fonctions et des variables mathématiques. Si cela est vrai, alors il devrait être possible pour les chercheurs de former des systèmes pour éviter ces comportements spécifiques. L’équipe de recherche visait à développer un ensemble d’outils qui pourrait être utilisé par les utilisateurs de l’IA pour spécifier quels comportements ils veulent que l’IA évite, et permettre aux ingénieurs en IA de former de manière fiable un système qui évitera les actions indésirables lorsqu’il est utilisé dans des scénarios du monde réel.
Phillip Thomas, le premier auteur de l’article et professeur assistant en informatique à l’U de Michigan Amherst, a expliqué que l’équipe de recherche visait à démontrer que les concepteurs d’algorithmes d’apprentissage automatique peuvent faciliter la description des comportements indésirables par les utilisateurs de l’IA et qu’il est très probable que le système d’IA évite ces comportements.
L’équipe de recherche a testé leur technique en l’appliquant à un problème courant en science des données, la discrimination sexuelle. L’équipe de recherche visait à rendre les algorithmes utilisés pour prédire les notes de GPA des étudiants plus justes en réduisant les préjugés sexuels. L’équipe de recherche a utilisé un ensemble de données expérimentales et a instruit leur système d’IA pour éviter la création de modèles qui sous-estimaient ou surestimaient les notes de GPA pour un sexe. En conséquence des instructions des chercheurs, l’algorithme a créé un modèle qui prédisait mieux les notes de GPA des étudiants et avait nettement moins de préjugés sexuels systémiques que les modèles existants. Les modèles de prédiction de notes de GPA antérieurs souffraient de préjugés parce que les modèles de réduction des préjugés étaient souvent trop limités pour être utiles, ou qu’aucune réduction des préjugés n’était utilisée du tout.
Un autre algorithme a également été développé par l’équipe de recherche. Cet algorithme a été mis en œuvre dans une pompe à insuline automatisée, et l’algorithme était destiné à équilibrer les performances et la sécurité. Les pompes à insuline automatisées doivent décider de la taille de la dose d’insuline que le patient devrait recevoir. Après avoir mangé, la pompe devrait idéalement délivrer une dose d’insuline juste suffisante pour maintenir les niveaux de sucre dans le sang en contrôle. Les doses d’insuline délivrées doivent être ni trop grandes ni trop petites.
Les algorithmes d’apprentissage automatique sont déjà compétents pour identifier les modèles dans la réponse d’un individu aux doses d’insuline, mais ces méthodes d’analyse existantes ne permettent pas aux médecins de spécifier les résultats qui devraient être évités, tels que les chutes de sucre dans le sang. En revanche, l’équipe de recherche a pu développer une méthode qui pourrait être formée pour délivrer des doses d’insuline qui restent dans les deux extrêmes, en évitant ainsi la sous-dose ou la surdose. Même si le système n’est pas prêt à être testé sur des patients réels pour le moment, un système d’IA plus sophistiqué basé sur cette approche pourrait améliorer la qualité de vie des personnes souffrant de diabète.
Dans l’article de recherche, les chercheurs font référence à l’algorithme comme un algorithme “Seledonian”. Cela fait référence aux trois lois de la robotique décrites par l’auteur de science-fiction Isaac Asimov. L’implication est que le système d’IA “ne peut pas blesser un être humain ou, par inaction, permettre à un être humain de subir un préjudice”. L’équipe de recherche espère que leur cadre permettra aux chercheurs et aux ingénieurs en IA de créer une variété d’algorithmes et de systèmes qui évitent les comportements dangereux. Emma Brunskill, auteur principal de l’article et professeur assistant en informatique à Stanford, a expliqué à TechXplore :
“Nous voulons faire progresser l’IA qui respecte les valeurs de ses utilisateurs humains et justifie la confiance que nous plaçons dans les systèmes autonomes.”












