Entre em contato

Quando evitar IA na área da saúde

Líderes de pensamento

Quando evitar IA na área da saúde

mm

Sempre que um novo avanço tecnológico chega a uma indústria, pode haver uma tentação de ungir aquele brinquedo novo e brilhante como uma anedota para todos os males de uma indústria. A IA na área da saúde é um ótimo exemplo. À medida que a tecnologia continuou a avançar, ela foi adotada para casos de uso em desenvolvimento de medicamentos, coordenação de cuidados e reembolso, para citar alguns. Há um grande número de casos de uso legítimos para IA na área da saúde, onde a tecnologia é de longe melhor do que qualquer alternativa disponível atualmente.

No entanto, a IA — como está hoje — se destaca apenas em certas tarefas, como entender grandes quantidades de dados e fazer julgamentos com base em regras bem definidas. Outras situações, particularmente onde o contexto adicional é essencial para tomar a decisão certa, não são adequados para IA. Vamos explorar alguns exemplos.

Negação de reivindicações e cuidados

Seja para uma reivindicação ou cuidado, as negações são decisões complexas e importantes demais para serem tratadas pela IA sozinha. Ao negar uma reivindicação ou cuidado, há um imperativo moral óbvio de fazê-lo com o máximo de cautela e, com base nas capacidades da IA ​​hoje, isso requer contribuição humana.

Além do elemento moral, os planos de saúde se colocam em risco quando dependem muito da IA ​​para tomar decisões de negação. Os planos podem, e estão, enfrentando processos judiciais, por usar a IA indevidamente para negar reivindicações, com litígio acusando os planos de não atenderem aos requisitos mínimos para revisão médica porque, em vez disso, foi usada IA.

Confiando em decisões passadas

Confiar na IA para tomar decisões com base somente em como ela tomou uma decisão anterior tem uma falha óbvia: uma decisão errada do passado viverá para influenciar outras. Além disso, como as regras de política que informam a IA são frequentemente distribuídas entre sistemas ou codificadas de forma imperfeita por humanos, os sistemas de IA podem acabar adotando e, então, perpetuando uma compreensão inexata dessas políticas. Para evitar isso, as organizações precisam criar uma única fonte de verdade de política, para que a IA possa referenciar e aprender com um conjunto de dados confiável.

Construindo em sistemas legados

Como uma tecnologia relativamente nova, a IA traz uma sensação de possibilidade, e muitas equipes de ciência de dados de planos de saúde estão ansiosas para explorar essa possibilidade rapidamente, aproveitando ferramentas de IA já incorporadas em plataformas empresariais existentes. O problema é que os processos de reivindicações de assistência médica são extremamente complexos, e as plataformas empresariais geralmente não entendem as complexidades. Colocar IA em cima dessas plataformas legadas como uma solução única (que não leva em conta todos os vários fatores que impactam a adjudicação de reivindicações) acaba causando confusão e imprecisão, em vez de criar processos mais eficientes.

Apoiando-se em dados antigos

Um dos maiores benefícios da IA ​​é que ela fica cada vez melhor em orquestrar tarefas conforme aprende, mas esse aprendizado só pode ocorrer se houver um loop de feedback consistente que ajude a IA a entender o que ela fez de errado para que ela possa se ajustar adequadamente. Esse feedback não deve ser apenas constante, mas também deve ser baseado em dados limpos e precisos. Afinal, a IA é tão boa quanto os dados dos quais aprende.

Quando a IA na área da saúde é benéfica

O uso de IA em um setor onde os resultados são tão importantes quanto o da saúde certamente exige cautela, mas isso não significa que não haja casos de uso em que a IA faça sentido.

Para um, não há escassez de dados na área da saúde (considere que o prontuário médico de uma pessoa pode ter milhares de páginas), e os padrões dentro desses dados podem nos dizer muito sobre o diagnóstico de doenças, a adjudicação correta de reivindicações e muito mais. É aqui que a IA se destaca, buscando padrões e sugerindo ações com base nesses padrões que os revisores humanos podem executar.

Outra área em que a IA se destaca é em catalogando e ingerindo políticas e regras que regem como as reivindicações são pagas. IA generativa (GenAI) pode ser usado para transformar este conteúdo de política de vários formatos em código legível por máquina que pode ser aplicado de forma consistente em todos os reivindicações de pacientes. O GenAI também pode ser usado para resumir informações e exibi-las em um formato fácil de ler para um humano revisar.

O fio condutor de todos esses casos de uso é que a IA está sendo usada como um copiloto para humanos que a supervisionam, não comandando o show sozinha. Enquanto as organizações puderem manter essa ideia em mente ao implementar a IA, elas estarão em posição de ter sucesso durante esta era em que a assistência médica está sendo transformada pela IA.

Dr. Tim Wetherill, Diretor Clínico da Usinificar, treinado como cirurgião geral/trauma na Universidade do Kansas. Ele trabalhou como cirurgião geral tanto na prática privada quanto no VA antes de fazer a transição para o BCBS Montana e HCSC, onde liderou grandes transformações em torno da gestão de utilização, integridade de pagamento e farmácia. Ele também foi presidente do Comitê de Política Médica e criador do Comitê de Validação Clínica do Fornecedor.