Connect with us

Cuándo evitar el uso de la IA en la atención médica

Salud

Cuándo evitar el uso de la IA en la atención médica

mm

Cada vez que una nueva tecnología avanza en una industria, puede haber una tentación de considerar que ese juguete brillante y nuevo es una anécdota para todos los males de la industria. La IA en la atención médica es un gran ejemplo. A medida que la tecnología ha seguido avanzando, se ha adoptado para casos de uso en el desarrollo de medicamentos, la coordinación de la atención y el reembolso, por nombrar algunos. Hay un gran número de casos de uso legítimos para la IA en la atención médica, donde la tecnología es mucho mejor que cualquier alternativa disponible actualmente.

Sin embargo, la IA – como está hoy en día – solo sobresale en ciertas tareas, como entender grandes cantidades de datos y tomar decisiones basadas en reglas bien definidas. Otras situaciones, particularmente donde se requiere contexto adicional para tomar la decisión correcta, no están bien adaptadas para la IA. Exploraremos algunos ejemplos.

Negar reclamaciones y atención

Ya sea para una reclamación o atención, las negaciones son decisiones complejas y demasiado importantes para ser manejadas por la IA sola. Al negar una reclamación o atención, hay un imperativo moral obvio para hacerlo con la máxima precaución, y basado en las capacidades de la IA hoy en día, eso requiere la participación humana.

Más allá del elemento moral, los planes de salud se ponen en riesgo cuando confían demasiado en la IA para tomar decisiones de negación. Los planes pueden, y están, enfrentando demandas por utilizar la IA de manera incorrecta para negar reclamaciones, con litigios que acusan a los planes de no cumplir con los requisitos mínimos para la revisión médica porque se utilizó la IA en su lugar.

Confianza en decisiones pasadas

Confiar en la IA para tomar decisiones basadas únicamente en cómo tomó una decisión anterior tiene un defecto obvio: una decisión incorrecta del pasado vivirá para influir en otras. Además, porque las reglas de política que informan a la IA a menudo se distribuyen en sistemas o se codifican de manera imperfecta por humanos, los sistemas de IA pueden terminar adoptando y luego perpetuando una comprensión inexacta de estas políticas. Para evitar esto, las organizaciones necesitan crear una fuente única de verdad de política, para que la IA pueda consultar y aprender de un conjunto de datos confiable.

Construir sobre sistemas heredados

Como una tecnología relativamente nueva, la IA trae una sensación de posibilidad, y muchos equipos de ciencia de datos de planes de salud están ansiosos por aprovechar esa posibilidad rápidamente mediante el uso de herramientas de IA ya integradas en plataformas empresariales existentes. El problema es que los procesos de reclamaciones de atención médica son extremadamente complejos, y las plataformas empresariales a menudo no entienden las complejidades. Colocar la IA sobre estas plataformas heredadas como una solución de talla única (que no tiene en cuenta todos los factores variados que afectan la adjudicación de reclamaciones) termina causando confusión e inexactitud, en lugar de crear procesos más eficientes.

Inclinarse hacia datos antiguos

Uno de los mayores beneficios de la IA es que se vuelve cada vez mejor en la orquestación de tareas a medida que aprende, pero ese aprendizaje solo puede tener lugar si hay un bucle de retroalimentación constante que ayude a la IA a entender qué ha hecho mal para que pueda ajustarse en consecuencia. Esa retroalimentación no solo debe ser constante, sino que también debe basarse en datos limpios y precisos. Después de todo, la IA solo es tan buena como los datos de los que aprende.

Cuándo la IA en la atención médica ES beneficiosa

El uso de la IA en un sector donde las salidas son tan importantes como la atención médica ciertamente requiere precaución, pero eso no significa que no haya casos de uso donde la IA tenga sentido.

Por un lado, no hay escasez de datos en la atención médica (considerando que el historial médico de una persona podría ser de miles de páginas), y los patrones dentro de esos datos pueden decirnos mucho sobre el diagnóstico de enfermedades, la adjudicación correcta de reclamaciones y más. Esto es donde la IA sobresale, buscando patrones y sugiriendo acciones basadas en esos patrones que los revisores humanos pueden seguir.

Otra área donde la IA sobresale es en catalogar e ingerir políticas y reglas que gobiernan cómo se pagan las reclamaciones. Generative AI (GenAI) se puede utilizar para transformar este contenido de política de varios formatos en código legible por máquina que se puede aplicar consistentemente en todas las reclamaciones de pacientes. GenAI también se puede utilizar para resumir la información y mostrarla en un formato fácil de leer para que un humano la revise.

El hilo común a través de todos estos casos de uso es que la IA se está utilizando como copiloto para humanos que la supervisan, no como el que lleva el espectáculo solo. Mientras las organizaciones puedan mantener esa idea en mente al implementar la IA, estarán en una posición para tener éxito durante esta era en la que la atención médica está siendo transformada por la IA.

El Dr. Tim Wetherill, Director Clínico en Machinify, se capacitó como cirujano general/trauma en la Universidad de Kansas. Trabajó como cirujano general en práctica privada y en la VA antes de trasladarse a BCBS Montana y HCSC, donde lideró transformaciones importantes en torno a la gestión de la utilización, la integridad del pago y la farmacia. También fue presidente del Comité de Política Médica y creador del Comité de Validación Clínica de Proveedores.