Salud
La Inteligencia Artificial En La Atención Médica Podría Traer Riesgos Junto Con Oportunidades

La IA tiene un enorme potencial cuando se trata del campo de la atención médica, capaz de mejorar los diagnósticos y encontrar nuevos medicamentos más efectivos. Sin embargo, como discutió un artículo en Scientific American recientemente, la velocidad con la que la IA está penetrando en el campo de la atención médica también abre muchos nuevos desafíos y riesgos.
A lo largo de los últimos cinco años, la Administración de Alimentos y Medicamentos de EE. UU. ha aprobado más de 40 productos de IA diferentes. Sin embargo, como informó Scientific American, ninguno de los productos autorizados para la venta en EE. UU. ha tenido su rendimiento evaluado en ensayos clínicos controlados aleatorios. Muchas herramientas médicas de IA ni siquiera requieren la aprobación de la FDA.
Evan Topol, autor de “Deep Medicine: How Artificial Intelligence Can Make Healthcare Human Again”, declaró a Scientific American que muchos de los productos de IA que afirman ser efectivos en tareas como el diagnóstico de enfermedades en realidad han sido rigurosamente probados de esta manera, con el primer ensayo clínico importante de una herramienta de detección y diagnóstico de IA realizado el pasado octubre. Además, muy pocas startups de tecnología publican sus artículos de investigación en revistas de revisión por pares, que es donde su trabajo será analizado por científicos.
Cuando se prueban y controlan adecuadamente, los sistemas de IA pueden ser herramientas poderosas que pueden ayudar a los profesionales médicos a detectar síntomas que de otro modo no se habrían notado, mejorando los resultados de salud.
Como ejemplo, una herramienta de IA para detectar la enfermedad ocular diabética se probó en cientos de pacientes y pareció ser confiable. La empresa responsable de la prueba trabajó junto con la FDA durante más de ocho años para perfeccionar el producto. La prueba, IDx-DR, se está introduciendo en clínicas de atención primaria donde podría potencialmente ayudar a detectar signos tempranos de retinopatía diabética, remitiendo a los pacientes a especialistas en ojos si se encuentran síntomas sospechosos.
Si no se prueban cuidadosamente, los sistemas de IA que los profesionales médicos pueden utilizar para guiar su diagnóstico y tratamiento tienen el potencial de crear daño en lugar de evitarlo.
El artículo de Scientific American detalla un problema potencial con la confianza en la IA para diagnosticar afecciones, señalando el ejemplo de una IA destinada a analizar radiografías de tórax y detectar a los pacientes que podrían desarrollar neumonía. Mientras que el sistema demostró ser preciso cuando se probó en el Hospital Mount Sinai en Nueva York, falló cuando se probó en imágenes tomadas en otros hospitales. Los investigadores encontraron que la IA distinguía entre imágenes creadas por sistemas de rayos X portátiles y aquellas creadas en un departamento de radiología. Los médicos utilizan sistemas de rayos X portátiles en pacientes que a menudo están demasiado enfermos para dejar sus camas, y estos pacientes tienen un mayor riesgo de desarrollar neumonía.
Las falsas alarmas también son una preocupación. DeepMind creó una aplicación móvil de IA que es capaz de predecir la insuficiencia renal aguda en pacientes hospitalizados hasta 48 horas antes. Sin embargo, el sistema informó también dos falsas alarmas por cada insuficiencia renal que se predijo con éxito. Las falsas positivos pueden ser dañinas ya que pueden animar a los médicos a gastar tiempo y recursos innecesarios ordenando más pruebas o alterando los tratamientos prescritos.
En otro incidente, un sistema de IA concluyó incorrectamente que los pacientes que tenían neumonía tenían más probabilidades de sobrevivir si tenían asma, lo que podría hacer que los médicos alteren los tratamientos para los pacientes con asma.
Los sistemas de IA que se desarrollan para un hospital a menudo tienen un rendimiento deficiente cuando se utilizan en un hospital diferente. Hay varias causas para esto. Por un lado, los sistemas de IA a menudo se entrenan con registros de salud electrónicos, pero muchos registros de salud electrónicos a menudo son incompletos o incorrectos, ya que su propósito principal a menudo es la facturación y no la atención al paciente. Por ejemplo, una investigación realizada por KHN encontró que ocasionalmente había errores de vida o muerte en los registros médicos de los pacientes, como listas de medicamentos que contenían medicamentos incorrectos. Más allá de eso, las enfermedades a menudo son más complicadas y el sistema de atención médica más complejo de lo que pueden anticipar los ingenieros y científicos de IA.
A medida que la IA se vuelva cada vez más prolífica, será importante que los desarrolladores de IA trabajen junto con las autoridades de salud para garantizar que sus sistemas de IA estén completamente probados y que los organismos reguladores garanticen que se establezcan y sigan normas para la confiabilidad de las herramientas de diagnóstico de IA.












