Entre em contato

Inteligência artificial na área da saúde pode trazer riscos junto com oportunidades

Assistência médica

Inteligência artificial na área da saúde pode trazer riscos junto com oportunidades

mm

A IA tem um enorme potencial na área da saúde, capaz de melhorar diagnósticos e encontrar novos medicamentos mais eficazes. No entanto, como uma peça em Scientific American discutido recentemente, a velocidade com que a IA está penetrando no campo da saúde também abre muitos novos desafios e riscos.

Ao longo dos últimos cinco anos, a Food and Drug Administration dos EUA aprovou mais de 40 produtos de IA diferentes. No entanto, conforme relatado pela Scientific American, nenhum dos produtos liberados para venda nos EUA teve seu desempenho avaliado em ensaios clínicos randomizados controlados. Muitas ferramentas médicas de IA nem exigem aprovação do FDA.

Evan Topol, autor de “Deep Medicine: How Artificial Intelligence Can Make Healthcare Human Again”, afirmou à Scientific American que muitos dos produtos de IA que afirmam ser eficazes em tarefas como diagnosticar doenças foram, na verdade, rigorosamente testados dessa maneira, com o primeiro grande estudo randomizado de detecção e diagnóstico de IA sendo realizado em outubro passado. Além disso, muito poucas startups de tecnologia publicam seus trabalhos de pesquisa em periódicos revisados ​​por pares, que é onde seu trabalho será analisado por cientistas.

Quando testados e controlados adequadamente, os sistemas de IA podem ser ferramentas poderosas que podem ajudar os profissionais médicos a detectar sintomas de outra forma despercebidos, melhorando os resultados de saúde.

Por exemplo, uma ferramenta de IA para detectar a doença ocular diabética foi testada em centenas de pacientes e pareceu se mostrar confiável. A empresa responsável pelo teste trabalhou em conjunto com a FDA por mais de oito anos para refinar o produto. O teste, IDx-DR, está chegando às clínicas de atenção primária, onde pode potencialmente ajudar a detectar sinais precoces de retinopatia diabética, encaminhando pacientes a oftalmologistas caso sejam encontrados sintomas suspeitos.

Se não forem testados com cuidado, os sistemas de IA que os profissionais médicos podem usar para orientar seu diagnóstico e tratamento têm o potencial de criar danos em vez de evitá-los.

O artigo da Scientific American detalha um problema potencial em confiar na IA para diagnosticar doenças, apontando para o exemplo de uma IA destinada a analisar radiografias de tórax e detectar quais pacientes podem desenvolver pneumonia. Embora o sistema tenha se mostrado preciso quando testado no Mount Sinai Hospital, em Nova York, ele falhou quando testado em imagens tiradas em outros hospitais. Os pesquisadores descobriram que a IA estava distinguindo entre imagens criadas por sistemas portáteis de raios-X e aquelas criadas em um departamento de radiologia. Os médicos usam sistemas portáteis de radiografia de tórax em pacientes que muitas vezes estão muito doentes para deixar suas camas, e esses pacientes correm maior risco de desenvolver pneumonia.

Alarmes falsos também são uma preocupação. A DeepMind criou um aplicativo móvel de IA capaz de prever insuficiência renal aguda em pacientes hospitalizados com até 48 horas de antecedência. No entanto, o sistema alegadamente tb fez dois alarmes falsos para cada insuficiência renal que foi prevista com sucesso. Os falsos positivos podem ser prejudiciais, pois podem encorajar os médicos a gastar tempo e recursos desnecessários solicitando mais exames ou alterando os tratamentos prescritos.

Em outro incidente, um sistema de IA concluiu incorretamente que os pacientes com pneumonia tinham maior probabilidade de sobreviver se tivessem asma, o que poderia levar os médicos a alterar os tratamentos para pacientes com asma.

Os sistemas de IA desenvolvidos para um hospital geralmente apresentam baixo desempenho quando são usados ​​em um hospital diferente. Existem várias causas para isso. Por um lado, os sistemas de IA costumam ser treinados em registros eletrônicos de saúde, mas muitos registros eletrônicos de saúde costumam estar incompletos ou incorretos, pois seu objetivo principal geralmente é o faturamento e não o atendimento ao paciente. Por exemplo, uma investigação realizado por KHN descobriu que ocasionalmente havia erros com risco de vida nos registros médicos dos pacientes, como listas de medicamentos contendo remédios impróprios. Além disso, as doenças costumam ser apenas mais complicadas e o sistema de saúde mais complexo do que pode ser previsto por engenheiros e cientistas de IA.

À medida que a IA se torna cada vez mais prolífica, será importante que os desenvolvedores de IA trabalhem ao lado das autoridades de saúde para garantir que seus sistemas de IA sejam exaustivamente testados e que os órgãos reguladores garantam que os padrões sejam definidos e seguidos para a confiabilidade das ferramentas de diagnóstico de IA.

Blogueiro e programador com especialidades em Machine Learning e Deep Learning tópicos. Daniel espera ajudar outras pessoas a usar o poder da IA ​​para o bem social.