Des leaders d'opinion
Démasquer les biais dans l'intelligence artificielle : défis et solutions

Les progrès récents de IA générative L’essor des applications d’entreprise dans de nombreux secteurs, notamment la finance, la santé et les transports, a été accompagné d’un boom. Le développement de cette technologie entraînera également l’émergence d’autres technologies telles que les technologies de défense en matière de cybersécurité, les avancées en informatique quantique et les techniques de communication sans fil révolutionnaires. Cependant, cette explosion des technologies de nouvelle génération s’accompagne de son lot de défis.
Par exemple, l’adoption de l’IA pourrait permettre des cyberattaques plus sophistiquées, des goulots d’étranglement de la mémoire et du stockage en raison de l’augmentation de la puissance de calcul et des préoccupations éthiques liées aux biais présentés par les modèles d’IA. La bonne nouvelle est que NTT Research a proposé un moyen de surmonter les biais dans les réseaux neuronaux profonds (DNN), un type d’intelligence artificielle.
Cette recherche constitue une avancée majeure, car les modèles d'IA non biaisés contribueront au recrutement, au système judiciaire et aux soins de santé lorsqu'ils ne seront pas influencés par des caractéristiques telles que l'origine ethnique ou le sexe. À l'avenir, l'utilisation de ces systèmes automatisés pourrait permettre d'éliminer la discrimination, améliorant ainsi les initiatives de DE&I à l'échelle du secteur. Enfin, les modèles d'IA aux résultats non biaisés amélioreront la productivité et réduiront le temps nécessaire à l'exécution de ces tâches. Cependant, peu d'entreprises ont été contraintes d'interrompre leurs programmes d'IA en raison des biais liés à cette technologie.
Par exemple, Amazon a cessé d'utiliser un algorithme de recrutement après avoir découvert que celui-ci privilégiait les candidats utilisant plus fréquemment des mots comme « exécuté » ou « capturé », plus présents dans les CV masculins. Un autre exemple flagrant de biais provient de Joy Buolamwini, l'une des personnalités les plus influentes de l'IA en 2023 selon , en collaboration avec Timnit Gebru du MIT, a révélé que les technologies d'analyse faciale présentaient des taux d'erreur plus élevés lors de l'évaluation des minorités, en particulier des femmes appartenant à des minorités, potentiellement en raison de données de formation insuffisamment représentatives.
Récemment, les DNN sont devenus omniprésents dans les domaines de la science, de l'ingénierie et des affaires, et même dans des applications populaires, mais ils reposent parfois sur des attributs erronés qui peuvent véhiculer des préjugés. étude du MIT Au cours des dernières années, les scientifiques ont développé des réseaux neuronaux profonds capables d'analyser de grandes quantités d'entrées, notamment des sons et des images. Ces réseaux peuvent identifier des caractéristiques communes, ce qui leur permet de classer des mots ou des objets cibles. À l'heure actuelle, ces modèles sont à l'avant-garde du domaine en tant que principaux modèles de réplication des systèmes sensoriels biologiques.
Hidenori Tanaka, chercheur principal de NTT Research et associé au Centre des sciences du cerveau de l'Université Harvard, et trois autres scientifiques ont proposé de surmonter les limites du réglage fin naïf, la méthode du statu quo pour réduire les erreurs ou « pertes » d'un DNN, avec un nouvel algorithme qui réduit la dépendance d'un modèle aux attributs sujets aux biais.
Ils ont étudié les paysages de perte des réseaux neuronaux à travers le prisme de la connectivité des modes, l'observation selon laquelle les minimiseurs des réseaux neuronaux récupérés via l'entraînement sur un ensemble de données sont connectés via des chemins simples à faible perte. Plus précisément, ils ont posé la question suivante : les minimiseurs qui s'appuient sur différents mécanismes pour effectuer leurs prédictions sont-ils connectés via des chemins simples à faible perte ?
Ils ont découvert que le réglage fin naïf est incapable de modifier fondamentalement le mécanisme de prise de décision d’un modèle, car il nécessite de se déplacer vers une autre vallée du paysage des pertes. Au lieu de cela, il faut faire passer le modèle par-dessus les barrières séparant les « puits » ou les « vallées » de faibles pertes. Les auteurs appellent cet algorithme correctif le réglage fin basé sur la connectivité (CBFT).
Avant ce développement, un DNN, qui classifie des images telles qu'un poisson (une illustration utilisée dans cette étude), utilisait à la fois la forme de l'objet et l'arrière-plan comme paramètres d'entrée pour la prédiction. Ses chemins minimisant les pertes fonctionneraient donc selon des modes mécaniquement différents : l'un s'appuyant sur l'attribut légitime de la forme, et l'autre sur l'attribut parasite de la couleur d'arrière-plan. En tant que tels, ces modes manqueraient de connectivité linéaire ou d'un chemin simple à faible perte.
L'équipe de recherche comprend la connectivité mécaniste des modes de lentille en considérant deux ensembles de paramètres qui minimisent la perte en utilisant les arrière-plans et les formes des objets comme attributs d'entrée pour la prédiction, respectivement. Et s'est ensuite demandé si de tels minimiseurs mécaniquement différents sont connectés via des chemins de faible perte dans le paysage ? La dissemblance de ces mécanismes affecte-t-elle la simplicité de leurs chemins de connectivité ? Pouvons-nous exploiter cette connectivité pour basculer entre les minimiseurs qui utilisent les mécanismes souhaités ?
En d'autres termes, les réseaux de neurones profonds, selon ce qu'ils ont appris lors de leur entraînement sur un jeu de données particulier, peuvent se comporter très différemment lorsqu'ils sont testés sur un autre jeu de données. La proposition de l'équipe se résume au concept de similarités partagées. Elle s'appuie sur l'idée précédente de connectivité des modes, mais avec une variante : elle prend en compte le fonctionnement de mécanismes similaires. Leurs recherches ont conduit aux découvertes suivantes, révélatrices :
- les minimiseurs qui ont des mécanismes différents peuvent être connectés d'une manière plutôt complexe et non linéaire
- lorsque deux minimiseurs sont linéairement connectés, cela est étroitement lié à la similitude de leurs modèles en termes de mécanismes
- un simple réglage fin pourrait ne pas suffire à éliminer les fonctionnalités indésirables détectées lors de la formation précédente
- si vous trouvez des régions linéairement déconnectées dans le paysage, vous pouvez apporter des modifications efficaces au fonctionnement interne d'un modèle.
Bien que cette recherche constitue une étape majeure dans l’exploitation du plein potentiel de l’IA, les préoccupations éthiques autour de l’IA peuvent encore être un combat à mener. Les technologues et les chercheurs s’efforcent de lutter contre d’autres faiblesses éthiques de l’IA et d’autres grands modèles linguistiques tels que la confidentialité, l’autonomie et la responsabilité.
L'IA permet de collecter et de traiter d'importantes quantités de données personnelles. L'utilisation non autorisée ou contraire à l'éthique de ces données peut compromettre la vie privée des individus, suscitant des inquiétudes quant à la surveillance, aux violations de données et à l'usurpation d'identité. L'IA peut également constituer une menace quant à la responsabilité de ses applications autonomes, telles que les voitures sans conducteur. L'établissement de cadres juridiques et de normes éthiques en matière de responsabilité sera essentiel dans les années à venir.
En conclusion, la croissance rapide de la technologie de l’IA générative est prometteuse pour de nombreux secteurs, de la finance aux transports en passant par la santé. Malgré ces avancées prometteuses, les préoccupations éthiques entourant l’IA demeurent importantes. Alors que nous traversons cette ère de transformation de l’IA, il est essentiel que les technologues, les chercheurs et les décideurs politiques travaillent ensemble pour établir des cadres juridiques et des normes éthiques qui garantiront l’utilisation responsable et bénéfique de la technologie de l’IA dans les années à venir. Les scientifiques de NTT Research et de l’Université du Michigan ont une longueur d’avance avec leur proposition d’algorithme qui pourrait potentiellement éliminer les biais de l’IA.