Sector Sanitario
La inteligencia artificial en el cuidado de la salud podría traer riesgos junto con oportunidades

La IA tiene un enorme potencial en el campo de la salud, capaz de mejorar los diagnósticos y encontrar nuevos medicamentos más efectivos. Sin embargo, como una pieza en Scientific American discutido recientemente, la velocidad con la que la IA está penetrando en el campo de la atención médica también abre muchos nuevos desafíos y riesgos.
En el transcurso de los últimos cinco años, la Administración de Drogas y Alimentos de EE. UU. ha aprobado más de 40 productos diferentes de IA. Sin embargo, como informó Scientific American, ninguno de los productos aprobados para la venta en los EE. UU. ha tenido su rendimiento evaluado en ensayos clínicos controlados aleatorios. Muchas herramientas médicas de IA ni siquiera requieren la aprobación de la FDA.
Evan Topol, autor de "Deep Medicine: How Artificial Intelligence Can Make Healthcare Human Again", declaró a Scientific American que muchos de los productos de IA que afirman ser efectivos en tareas como el diagnóstico de enfermedades en realidad se han probado rigurosamente de tal manera, con el primer gran ensayo aleatorio de detección y diagnóstico de IA se realizó en octubre pasado. Además, muy pocas nuevas empresas tecnológicas publican sus trabajos de investigación en revistas revisadas por pares, que es donde los científicos analizarán su trabajo.
Cuando se prueban y controlan adecuadamente, los sistemas de IA pueden ser herramientas poderosas que pueden ayudar a los profesionales médicos a detectar síntomas que de otro modo pasarían desapercibidos, mejorando los resultados de salud.
Por ejemplo, una herramienta de IA para detectar la enfermedad ocular diabética se probó en cientos de pacientes y pareció ser fiable. La empresa responsable de la prueba colaboró con la FDA durante más de ocho años para perfeccionar el producto. La prueba, IDx-DR, se está implementando en centros de atención primaria, donde podría ayudar a detectar signos tempranos de retinopatía diabética y derivar a los pacientes a oftalmólogos si se detectan síntomas sospechosos.
Si no se prueban cuidadosamente, los sistemas de IA que los profesionales médicos pueden usar para guiar su diagnóstico y tratamiento tienen el potencial de causar daño en lugar de evitarlo.
El artículo de Scientific American detalla un problema potencial al confiar en la IA para diagnosticar dolencias, y señala el ejemplo de una IA destinada a analizar radiografías de tórax y detectar qué pacientes podrían desarrollar neumonía. Si bien el sistema demostró ser preciso cuando se probó en el Hospital Mount Sinai de Nueva York, falló cuando se probó en imágenes tomadas en otros hospitales. Los investigadores descubrieron que la IA distinguía entre las imágenes creadas por los sistemas portátiles de rayos X y las creadas en un departamento de radiología. Los médicos usan sistemas portátiles de rayos X de tórax en pacientes que a menudo están demasiado enfermos para levantarse de la cama y estos pacientes corren un mayor riesgo de desarrollar neumonía.
Las falsas alarmas también son motivo de preocupación. DeepMind creó una aplicación móvil de IA que es capaz de predecir la insuficiencia renal aguda en pacientes hospitalizados con hasta 48 horas de anticipación. Sin embargo, el sistema según se informa también hizo dos falsas alarmas por cada insuficiencia renal que se predijo con éxito. Los falsos positivos pueden ser perjudiciales, ya que pueden alentar a los médicos a gastar tiempo y recursos innecesarios solicitando más pruebas o alterando los tratamientos prescritos.
En otro incidente, un sistema de IA concluyó incorrectamente que los pacientes que tenían neumonía tenían más probabilidades de sobrevivir si tenían asma, lo que podría hacer que los médicos modificaran los tratamientos para los pacientes con asma.
Los sistemas de IA que se desarrollan para un hospital a menudo tienen un rendimiento inferior cuando se utilizan en un hospital diferente. Hay múltiples causas para esto. Por un lado, los sistemas de inteligencia artificial a menudo se entrenan en registros de salud electrónicos, pero muchos registros de salud electrónicos a menudo están incompletos o son incorrectos, ya que su propósito principal suele ser la facturación y no la atención del paciente. Por ejemplo, una investigación realizado por KHN descubrió que, en ocasiones, había errores potencialmente mortales en los registros médicos de los pacientes, como listas de medicamentos que contenían medicamentos inadecuados. Más allá de eso, las enfermedades a menudo son más complicadas y el sistema de atención médica más complejo de lo que a menudo pueden anticipar los ingenieros y científicos de IA.
A medida que la IA se vuelve cada vez más prolífica, será importante que los desarrolladores de IA trabajen junto con las autoridades sanitarias para garantizar que sus sistemas de IA se prueben exhaustivamente y que los organismos reguladores garanticen que se establezcan y sigan estándares para la confiabilidad de las herramientas de diagnóstico de IA.












