Saúde
Inteligência Artificial Na Saúde Pode Acarretar Riscos Juntamente Com Oportunidades

A IA tem um potencial enorme quando se trata do campo da saúde, capaz de melhorar os diagnósticos e encontrar novos medicamentos mais eficazes. No entanto, como um artigo na Scientific American discutiu recentemente, a velocidade com que a IA está penetrando no campo da saúde também abre muitos novos desafios e riscos.
Ao longo dos últimos cinco anos, a FDA (Food and Drug Administration) dos EUA aprovou mais de 40 produtos de IA diferentes. No entanto, como relatado pela Scientific American, nenhum dos produtos liberados para venda nos EUA teve seu desempenho avaliado em ensaios clínicos controlados randomizados. Muitas ferramentas médicas de IA nem sequer requerem aprovação da FDA.
Evan Topol, autor de “Deep Medicine: How Artificial Intelligence Can Make Healthcare Human Again”, afirmou à Scientific American que muitos dos produtos de IA que alegam ser eficazes em tarefas como diagnóstico de doenças não foram rigorosamente testados, com o primeiro grande ensaio clínico randomizado de uma ferramenta de detecção e diagnóstico de IA sendo realizado no passado mês de outubro. Além disso, poucas startups de tecnologia publicam seus artigos de pesquisa em periódicos revisados por pares, que é onde seu trabalho será analisado por cientistas.
Quando testados e controlados adequadamente, os sistemas de IA podem ser ferramentas poderosas que ajudam os profissionais de saúde a detectar sintomas não notados, melhorando os resultados de saúde.
Como exemplo, uma ferramenta de IA para detectar doença ocular diabética foi testada em centenas de pacientes e pareceu ser confiável. A empresa responsável pelo teste trabalhou ao lado da FDA por mais de oito anos para aprimorar o produto. O teste, IDx-DR, está se tornando uma realidade em clínicas de atenção primária, onde pode potencialmente ajudar a detectar sinais precoces de retinopatia diabética, encaminhando pacientes para especialistas em olhos se sintomas suspeitos forem encontrados.
Se não forem testados cuidadosamente, os sistemas de IA que os profissionais de saúde podem usar para orientar seu diagnóstico e tratamento têm o potencial de criar danos em vez de evitá-los.
O artigo da Scientific American detalha um problema potencial com a dependência de IA para diagnosticar doenças, apontando o exemplo de uma IA destinada a analisar radiografias de tórax e detectar quais pacientes podem desenvolver pneumonia. Embora o sistema tenha se provado preciso quando testado no Hospital Mount Sinai, em Nova York, ele falhou quando testado em imagens tiradas em outros hospitais. Os pesquisadores descobriram que a IA estava distinguindo entre imagens criadas por sistemas de raios-X portáteis e aquelas criadas em um departamento de radiologia. Os médicos usam sistemas de raios-X portáteis em pacientes que muitas vezes estão muito doentes para deixar suas camas, e esses pacientes estão em maior risco de desenvolver pneumonia.
Falsos alarmes também são uma preocupação. A DeepMind criou um aplicativo móvel de IA capaz de prever a falência renal aguda em pacientes hospitalizados até 48 horas antes. No entanto, o sistema relatou também fez dois falsos alarmes para cada falência renal que foi prevista com sucesso. Falsos positivos podem ser prejudiciais, pois podem encorajar os médicos a gastar tempo e recursos desnecessários ordenando testes adicionais ou alterando tratamentos prescritos.
Em outro incidente, um sistema de IA concluiu incorretamente que os pacientes que tinham pneumonia estavam mais propensos a sobreviver se tivessem asma, o que poderia causar que os médicos alterassem os tratamentos para pacientes com asma.
Os sistemas de IA desenvolvidos para um hospital muitas vezes têm um desempenho ruim quando são usados em um hospital diferente. Há várias causas para isso. Em primeiro lugar, os sistemas de IA são frequentemente treinados em registros eletrônicos de saúde, mas muitos registros eletrônicos de saúde são frequentemente incompletos ou incorretos, pois seu propósito principal é muitas vezes a cobrança e não o cuidado ao paciente. Por exemplo, uma investigação realizada pela KHN encontrou que, ocasionalmente, havia erros de vida ou morte nos registros médicos dos pacientes, como listas de medicamentos que continham medicamentos impróprios. Além disso, as doenças são frequentemente mais complicadas, e o sistema de saúde é mais complexo do que pode ser antecipado por engenheiros e cientistas de IA.
À medida que a IA se torna cada vez mais prolífica, será importante que os desenvolvedores de IA trabalhem ao lado das autoridades de saúde para garantir que seus sistemas de IA sejam rigorosamente testados e que os órgãos reguladores garantam que os padrões sejam estabelecidos e seguidos para a confiabilidade das ferramentas de diagnóstico de IA.












