Inteligencia artificial
Un algoritmo podría abordar el sesgo racial en la atención médica si se entrena adecuadamente

Un equipo de investigadores de la Universidad de Stanford, la Universidad de Harvard y la Universidad de Chicago entrenaron algoritmos para diagnosticar artritis en radiografías de rodillas. Resulta que cuando se utilizan los informes de los pacientes como datos de entrenamiento para el algoritmo, el algoritmo fue más preciso que los radiólogos al analizar los registros de los pacientes negros.
Problema del sesgo algorítmico
El uso de algoritmos de aprendizaje automático en el campo médico puede mejorar potencialmente los resultados para los pacientes que sufren de toda clase de enfermedades, pero también hay problemas bien documentados con el uso de algoritmos de inteligencia artificial para diagnosticar a los pacientes. Estudios sobre los impactos de los modelos de inteligencia artificial desplegados han encontrado una serie de incidentes notables que involucran sesgo algorítmico. Estos incluyen algoritmos que dan a las minorías menos referencias a unidades de cardiología que a los pacientes blancos, aunque todos los síntomas informados fueron los mismos.
Uno de los autores del estudio, el profesor Ziad Obermeyer de la Escuela de Salud Pública de la Universidad de California en Berkeley, decidió emplear inteligencia artificial para investigar las disparidades entre los diagnósticos de radiografías por radiólogos y la cantidad de dolor que los pacientes informaron. Aunque los pacientes negros y los pacientes de bajos ingresos informaron niveles más altos de dolor, sus interpretaciones de radiografías se calificaron de la misma manera que la población en general. Los datos sobre los niveles de dolor informados provinieron de los NIH, y los investigadores querían investigar si los médicos humanos estaban perdiendo algo en su análisis de los datos.
Como informó Wired, para identificar las causas potenciales de estas diferencias, Obermeyer y otros investigadores diseñaron un modelo de visión computacional entrenado con datos de los NIH. Los algoritmos se diseñaron para analizar radiografías y predecir los niveles de dolor de un paciente en función de las imágenes. El software logró encontrar patrones dentro de las imágenes que se correlacionaron altamente con los niveles de dolor de un paciente.
Cuando el algoritmo se presenta con una imagen no vista, el modelo devuelve predicciones para el nivel de dolor informado por un paciente. Las predicciones devueltas por el modelo se alinearon más estrechamente con los niveles de dolor informados reales de los pacientes que las calificaciones asignadas por los radiólogos. Esto fue especialmente cierto para los pacientes negros. Obermeyer explicó a través de Wired que el algoritmo de visión computacional pudo detectar fenómenos que se asociaban más comúnmente con el dolor en los pacientes negros.
Entrenar sistemas adecuadamente
Según se informa, los criterios utilizados para evaluar las radiografías se desarrollaron originalmente en función de los resultados de un estudio pequeño realizado en el norte de Inglaterra en 1957. La población inicial utilizada para desarrollar los criterios de evaluación de la osteoartritis era muy diferente a la población diversa de los Estados Unidos modernos, por lo que no es sorprendente que se cometan errores al diagnosticar a estas personas diversas.
El nuevo estudio demuestra que cuando los algoritmos de inteligencia artificial se entrenan adecuadamente, pueden reducir el sesgo. El entrenamiento se basó en la retroalimentación de los pacientes en lugar de las opiniones de expertos. Obermeyer y sus colegas demostraron previamente que un algoritmo de inteligencia artificial comúnmente utilizado dio preferencia a los pacientes blancos sobre los pacientes negros, pero Obermeyer también mostró que entrenar un sistema de aprendizaje automático con los datos adecuados puede ayudar a prevenir el sesgo.
Una salvedad notable del estudio es una familiar para muchos investigadores de aprendizaje automático. El modelo de inteligencia artificial desarrollado por el equipo de investigación es una caja negra, y el equipo de investigadores no están seguros de qué características el algoritmo está detectando en las radiografías, lo que significa que no pueden decirles a los médicos qué características están perdiendo.
Otros radiólogos e investigadores están tratando de profundizar en la caja negra y descubrir los patrones dentro de ella, con la esperanza de ayudar a los médicos a entender qué están perdiendo. La radióloga y profesora de la Universidad de Emory, Judy Gichoya, está recopilando un conjunto más amplio y variado de radiografías para entrenar el modelo de inteligencia artificial. Gichoya tendrá a los radiólogos que creen notas detalladas sobre estas radiografías. Estas notas se compararán con la salida del modelo para ver si los patrones detectados por el algoritmo se pueden descubrir.












