Connect with us

¿Quién es responsable si la inteligencia artificial en la atención médica falla?

Salud

¿Quién es responsable si la inteligencia artificial en la atención médica falla?

mm

¿Quién es responsable cuando los errores de la inteligencia artificial en la atención médica causan accidentes, lesiones o algo peor? Dependiendo de la situación, podría ser el desarrollador de la inteligencia artificial, un profesional de la salud o incluso el paciente. La responsabilidad es una preocupación cada vez más compleja y grave a medida que la inteligencia artificial se vuelve más común en la atención médica. ¿Quién es responsable de la inteligencia artificial que sale mal y cómo se pueden prevenir los accidentes?

El riesgo de errores de la inteligencia artificial en la atención médica

Hay muchos beneficios increíbles de la inteligencia artificial en la atención médica, desde una mayor precisión y exactitud hasta tiempos de recuperación más rápidos. La inteligencia artificial está ayudando a los médicos a hacer diagnósticos, realizar cirugías y brindar la mejor atención posible a sus pacientes. Desafortunadamente, los errores de la inteligencia artificial siempre son una posibilidad.

Hay una amplia gama de escenarios de inteligencia artificial que salen mal en la atención médica. Los médicos y los pacientes pueden usar la inteligencia artificial como una herramienta de toma de decisiones basada en software o la inteligencia artificial puede ser el cerebro de dispositivos físicos como robots. Ambas categorías conllevan riesgos.

Por ejemplo, ¿qué sucede si un robot de cirugía con inteligencia artificial falla durante un procedimiento? Esto podría causar una lesión grave o incluso matar al paciente. De manera similar, ¿qué sucede si un algoritmo de diagnóstico de medicamentos recomienda el medicamento incorrecto para un paciente y sufre un efecto secundario negativo? Incluso si el medicamento no lastima al paciente, un diagnóstico incorrecto podría retrasar el tratamiento adecuado.

En la raíz de los errores de la inteligencia artificial como estos se encuentra la naturaleza de los modelos de inteligencia artificial en sí. La mayoría de la inteligencia artificial de hoy en día utiliza una lógica de “caja negra”, lo que significa que nadie puede ver cómo el algoritmo toma decisiones. La inteligencia artificial de caja negra carece de transparencia, lo que lleva a riesgos como sesgo lógico, discriminación y resultados inexactos. Desafortunadamente, es difícil detectar estos factores de riesgo hasta que ya han causado problemas.

Inteligencia artificial que sale mal: ¿de quién es la culpa?

¿Qué sucede cuando ocurre un accidente en un procedimiento médico con inteligencia artificial? La posibilidad de que la inteligencia artificial salga mal siempre estará en juego en cierta medida. Si alguien resulta herido o peor, ¿es la inteligencia artificial la culpable? No necesariamente.

Cuando el desarrollador de la inteligencia artificial es el culpable

Es importante recordar que la inteligencia artificial no es más que un programa de computadora. Es un programa de computadora muy avanzado, pero sigue siendo código, al igual que cualquier otro software. Dado que la inteligencia artificial no es sensible ni independiente como un ser humano, no puede ser considerada responsable de accidentes. Una inteligencia artificial no puede ir a la corte ni ser sentenciada a prisión.

Los errores de la inteligencia artificial en la atención médica probablemente serían responsabilidad del desarrollador de la inteligencia artificial o del profesional de la salud que monitorea el procedimiento. La parte que es culpable de un accidente podría variar de caso en caso.

Por ejemplo, el desarrollador probablemente sería el culpable si el sesgo de datos causó que la inteligencia artificial tomara decisiones injustas, inexactas o discriminatorias. El desarrollador es responsable de garantizar que la inteligencia artificial funcione como se promete y brinde a todos los pacientes el mejor tratamiento posible. Si la inteligencia artificial falla debido a la negligencia, la falta de supervisión o los errores por parte del desarrollador, el médico no sería responsable.

Cuando el médico o el profesional de la salud es el culpable

Sin embargo, también es posible que el médico o incluso el paciente puedan ser responsables de la inteligencia artificial que sale mal. Por ejemplo, el desarrollador podría hacer todo correctamente, dar al médico instrucciones detalladas y describir todos los posibles riesgos. Cuando llega el momento del procedimiento, el médico podría estar distraído, cansado, olvidadizo o simplemente negligente.

Las encuestas muestran que más del 40% de los médicos experimentan agotamiento en el trabajo, lo que puede llevar a falta de atención, reflejos lentos y mala memoria. Si el médico no aborda sus propias necesidades físicas y psicológicas y su condición causa un accidente, eso es culpa del médico.

Dependiendo de las circunstancias, el empleador del médico podría ser finalmente culpado por los errores de la inteligencia artificial en la atención médica. Por ejemplo, ¿qué sucede si un gerente en un hospital amenaza con negarle a un médico una promoción si no acepta trabajar horas extras? Esto obliga al médico a trabajar demasiado, lo que lleva al agotamiento. El empleador del médico probablemente sería considerado responsable en una situación única como esta.

Cuando el paciente es el culpable

¿Qué sucede si tanto el desarrollador de la inteligencia artificial como el médico hacen todo correctamente? Cuando el paciente utiliza de forma independiente una herramienta de inteligencia artificial, un accidente puede ser culpa del paciente. La inteligencia artificial que sale mal no siempre se debe a un error técnico. Puede ser el resultado de un uso pobre o inadecuado.

Por ejemplo, tal vez un médico explique detalladamente una herramienta de inteligencia artificial a su paciente, pero el paciente ignora las instrucciones de seguridad o ingresa datos incorrectos. Si este uso descuidado o inadecuado resulta en un accidente, es culpa del paciente. En este caso, el paciente era responsable de usar la inteligencia artificial correctamente o proporcionar datos precisos y no lo hizo.

Incluso cuando los pacientes conocen sus necesidades médicas, pueden no seguir las instrucciones del médico por una variedad de razones. Por ejemplo, el 24% de los estadounidenses que toman medicamentos con receta informan que les resulta difícil pagar sus medicamentos. Un paciente puede saltarse un medicamento o mentir a la inteligencia artificial sobre tomar uno porque se siente avergonzado por no poder pagar su receta.

Si el uso inadecuado del paciente se debió a la falta de orientación del médico o del desarrollador de la inteligencia artificial, la culpa podría ser de otra parte. En última instancia, depende de dónde ocurrió la raíz del accidente o del error.

Regulaciones y posibles soluciones

¿Hay una forma de prevenir los errores de la inteligencia artificial en la atención médica? Si bien ningún procedimiento médico está completamente libre de riesgos, hay formas de minimizar la probabilidad de resultados adversos.

Las regulaciones sobre el uso de la inteligencia artificial en la atención médica pueden proteger a los pacientes de herramientas y procedimientos con inteligencia artificial de alto riesgo. La FDA ya tiene marcos regulatorios para dispositivos médicos con inteligencia artificial, que describen los requisitos de prueba y seguridad y el proceso de revisión. Las principales organizaciones de supervisión médica también pueden intervenir para regular el uso de datos de pacientes con algoritmos de inteligencia artificial en los próximos años.

Además de regulaciones estrictas, razonables y exhaustivas, los desarrolladores deben tomar medidas para prevenir escenarios de inteligencia artificial que salen mal. La inteligencia artificial explicativa, también conocida como inteligencia artificial de caja blanca, puede resolver las preocupaciones de transparencia y sesgo de datos. Los modelos de inteligencia artificial explicativa son algoritmos emergentes que permiten a los desarrolladores y usuarios acceder a la lógica del modelo.

Cuando los desarrolladores de inteligencia artificial, los médicos y los pacientes pueden ver cómo la inteligencia artificial llega a sus conclusiones, es mucho más fácil identificar el sesgo de datos. Los médicos también pueden detectar inexactitudes o información faltante más rápidamente. Al utilizar inteligencia artificial explicativa en lugar de inteligencia artificial de caja negra, los desarrolladores y los proveedores de atención médica pueden aumentar la confiabilidad y eficacia de la inteligencia artificial médica.

Inteligencia artificial en la atención médica segura y efectiva

La inteligencia artificial puede hacer cosas increíbles en el campo médico, incluso salvar vidas. Siempre habrá alguna incertidumbre asociada con la inteligencia artificial, pero los desarrolladores y las organizaciones de atención médica pueden tomar medidas para minimizar esos riesgos. Cuando los errores de la inteligencia artificial en la atención médica ocurren, es probable que los asesores legales determinen la responsabilidad en función del error raíz del accidente.

Zac Amos es un escritor de tecnología que se enfoca en inteligencia artificial. También es el editor de características en ReHack, donde puedes leer más de su trabajo.