talon Un algorithme pourrait remédier aux préjugés raciaux dans les soins de santé s'il est correctement formé - Unite.AI
Suivez nous sur

Système de santé

Un algorithme pourrait remédier aux préjugés raciaux dans les soins de santé s'il est correctement formé

mm
Le kit de préparation mis à jour on

Une équipe de chercheurs de l'Université de Stanford, de l'Université de Harvard et de l'Université de Chicago a formé des algorithmes diagnostiquer l'arthrite dans les radiographies des genoux. Il s'avère que lorsque les rapports des patients sont utilisés comme données de formation pour l'algorithme, l'algorithme était plus précis que les radiologues lors de l'analyse des dossiers des patients noirs.

Problème de biais algorithmique

L’utilisation d’algorithmes d’apprentissage automatique dans le domaine médical peut potentiellement améliorer les résultats pour les patients souffrant de toutes sortes de maladies, mais il existe également des problèmes bien documentés liés à l’utilisation d’algorithmes d’IA pour diagnostiquer les patients. Des études sur les impacts des modèles d’IA déployés ont révélé un certain nombre d’incidents notables impliquant des biais algorithmiques. Ces inclure des algorithmes qui donnent aux minorités moins de références aux unités de cardiologie que les patients blancs, même si tous les symptômes signalés étaient les mêmes.

L'un des auteurs de l'étude, le professeur Ziad Obermeyer de l'école de santé publique de l'Université de Californie à Berkeley, a décidé d'utiliser l'IA pour enquêter sur les disparités entre les diagnostics de radiographies par les radiologues et la quantité de douleur signalée par les patients. Bien que les patients noirs et les patients à faible revenu aient signalé des niveaux de douleur plus élevés, leurs interprétations des rayons X ont été notées de la même manière que la population générale. Les données sur les niveaux de douleur rapportés provenaient du NIH, et les chercheurs voulaient déterminer si les médecins humains manquaient quelque chose dans leur analyse des données.

Tel que rapporté par Wired, afin d'identifier les causes potentielles de ces différences, Obermeyer et d'autres chercheurs ont conçu un modèle de vision par ordinateur formé sur les données du NIH. Les algorithmes ont été conçus pour analyser les rayons X et prédire les niveaux de douleur d'un patient sur la base des images. Le logiciel a réussi à trouver des modèles dans les images qui se sont révélés fortement corrélés aux niveaux de douleur du patient.

Lorsque l'algorithme est présenté avec une image invisible, le modèle renvoie des prédictions pour le niveau de douleur signalé d'un patient. Les prédictions renvoyées par le modèle correspondaient plus étroitement aux niveaux de douleur réels rapportés des patients que les scores attribués par les radiologues. Cela était particulièrement vrai pour les patients noirs. Obermeyer a expliqué via Wired que l'algorithme de vision par ordinateur était capable de détecter des phénomènes qui étaient plus souvent liés à la douleur chez les patients noirs.

Systèmes de formation appropriés

Apparemment, les critères utilisés pour évaluer les rayons X ont été développés à l'origine sur la base des résultats d'une petite étude menée dans le nord de l'Angleterre en 1957. La population initiale utilisée pour développer les critères d'évaluation de l'arthrose était très différente de la population très diversifiée des États-Unis modernes. États-Unis, il n'est donc pas surprenant que des erreurs soient commises lors du diagnostic de ces personnes diverses.

La nouvelle étude démontre que lorsque les algorithmes d'IA sont correctement formés, ils peuvent réduire les biais. La formation était basée sur les commentaires des patients eux-mêmes plutôt que sur des avis d'experts. Obermeyer et ses collègues déjà démontré qu'un algorithme d'IA couramment utilisé donnait la préférence aux patients blancs par rapport aux patients noirs, mais Obermeyer a également montré que la formation d'un système d'apprentissage automatique sur les bonnes données peut aider à prévenir les biais.

Une mise en garde notable à l'étude est familière à de nombreux chercheurs en apprentissage automatique. Le modèle d'IA développé par l'équipe de recherche est une boîte noire, et l'équipe de chercheurs elle-même ne sait pas quels types de caractéristiques l'algorithme détecte dans les rayons X, ce qui signifie qu'ils ne peuvent pas dire aux médecins quelles caractéristiques leur manquent. .

D'autres radiologues et chercheurs visent à creuser dans la boîte noire et à découvrir les schémas qui s'y trouvent, en espérant aider les médecins à comprendre ce qu'ils manquent. La radiologue et professeure à l'Université Emory, Judy Gichoya, collecte un ensemble plus vaste et varié de rayons X pour former le modèle d'IA. Gichoya demandera aux radiologues de créer des notes détaillées sur ces radiographies. Ces notes seront comparées à la sortie du modèle pour voir si les modèles détectés par l'algorithme peuvent être découverts.

Blogueur et programmeur spécialisé dans Machine Learning ainsi que L'apprentissage en profondeur les sujets. Daniel espère aider les autres à utiliser le pouvoir de l'IA pour le bien social.