Líderes de pensamento
A IA pode ser amiga ou inimiga na melhoria da equidade em saúde. Veja como garantir que ela ajude, não prejudique

As desigualdades e disparidades na assistência à saúde são generalizadas em divisões socioeconômicas, raciais e de gênero. Como sociedade, temos uma responsabilidade moral, ética e econômica de fechar essas lacunas e garantir acesso consistente, justo e acessível à assistência à saúde para todos.
A Inteligência Artificial (IA) ajuda a lidar com essas disparidades, mas também é uma faca de dois gumes. Certamente, a IA já está ajudando a agilizar a prestação de cuidados, habilitar medicina personalizada em escala e dar suporte a descobertas inovadoras. No entanto, o viés inerente nos dados, algoritmos e usuários pode piorar o problema se não tomarmos cuidado.
Isso significa que aqueles de nós que desenvolvemos e implementamos soluções de saúde baseadas em IA devem ter cuidado para evitar que a IA aumente involuntariamente as lacunas existentes, e os órgãos governamentais e associações profissionais devem desempenhar um papel ativo no estabelecimento de barreiras para evitar ou mitigar preconceitos.
Veja como aproveitar a IA pode reduzir as desigualdades em vez de aumentá-las.
Alcançar a equidade nos ensaios clínicos
Muitos novos ensaios de medicamentos e tratamentos têm sido historicamente tendenciosos em seu design, seja intencional ou não. Por exemplo, não foi até 1993 que as mulheres foram obrigadas por lei para ser incluído na pesquisa clínica financiada pelo NIH. Mais recentemente, As vacinas contra a COVID nunca foram testadas intencionalmente em mulheres grávidas—foi somente porque algumas participantes do estudo estavam grávidas sem saber no momento da vacinação que soubemos que era seguro.
Um desafio com a pesquisa é que não sabemos o que não sabemos. No entanto, a IA ajuda a descobrir conjuntos de dados tendenciosos ao analisar dados populacionais e sinalizar representação desproporcional ou lacunas na cobertura demográfica. Ao garantir representação diversa e treinar modelos de IA em dados que representam com precisão as populações-alvo, a IA ajuda a garantir a inclusão, reduzir danos e otimizar os resultados.
Garantir tratamentos equitativos
É bem estabelecida que as grávidas negras que sofrem de dor e complicações durante o parto são frequentemente ignoradas, resultando numa taxa de mortalidade materna 3X maior para mulheres negras do que mulheres brancas não hispânicas independentemente da renda ou educação. O problema é amplamente perpetuado por preconceitos inerentes: há um equívoco generalizado entre os profissionais médicos de que Pessoas negras têm maior tolerância à dor do que pessoas brancas.
O viés nos algoritmos de IA pode piorar o problema: pesquisadores de Harvard descobriram que um algoritmo comum previu que mulheres negras e latinas tinham menos probabilidade de ter partos vaginais bem-sucedidos após uma cesárea (VBAC), o que pode ter levado os médicos a realizar mais cesáreas em mulheres de cor. No entanto, os pesquisadores descobriram que "a associação é não suportado pela plausibilidade biológica”, sugerindo que a raça é “um substituto para outras variáveis que refletem o efeito de racismo sobre saúde”. O algoritmo foi posteriormente atualizado para excluir raça ou etnia ao calcular o risco.
Esta é uma aplicação perfeita para IA para erradicar o preconceito implícito e sugerir (com evidências) caminhos de tratamento que podem ter sido negligenciados anteriormente. Em vez de continuar a praticar “tratamento padrão”, podemos usar IA para determinar se essas melhores práticas são baseadas na experiência de todas as mulheres ou apenas de mulheres brancas. A IA ajuda a garantir que nossas bases de dados incluam os pacientes que mais têm a ganhar com os avanços em saúde e tecnologia.
Embora possa haver condições em que raça e etnia possam ser fatores impactantes, precisamos ter cuidado para saber como e quando eles devem ser considerados e quando estamos simplesmente recorrendo a preconceitos históricos para informar nossas percepções e algoritmos de IA.
Fornecer estratégias de prevenção equitativas
Soluções de IA podem facilmente ignorar certas condições em comunidades marginalizadas sem consideração cuidadosa para viés potencial. Por exemplo, a Administração de Veteranos está trabalhando em vários algoritmos para prever e detectar sinais de doenças cardíacas e ataques cardíacos. Isso tem um tremendo potencial de salvar vidas, mas a maioria dos estudos historicamente não incluiu muitas mulheres, para quem a doença cardiovascular é a principal causa de morte. Portanto, não se sabe se esses modelos são tão eficazes para mulheres, que frequentemente apresentam sintomas muito diferentes dos homens.
Incluir um número proporcional de mulheres neste conjunto de dados poderia ajudar a prevenir alguns dos 3.2 milhões de ataques cardíacos e meio milhão de mortes relacionadas com problemas cardíacos anualmente em mulheres através da detecção e intervenção precoces. Da mesma forma, novas ferramentas de IA estão a remover a algoritmos baseados em raça na triagem de doenças renais, que historicamente excluíram negros, hispânicos e nativos americanos, resultando em atrasos no atendimento e resultados clínicos ruins.
Em vez de excluir indivíduos marginalizados, a IA pode realmente ajudar a prever riscos de saúde para populações carentes e permitir avaliações de risco personalizadas para melhor direcionar intervenções. Os dados podem já estar lá; é simplesmente uma questão de “ajustar” os modelos para determinar como raça, gênero e outros fatores demográficos afetam os resultados — se é que afetam.
Simplifique as tarefas administrativas
Além de afetar diretamente os resultados dos pacientes, a IA tem um potencial incrível para acelerar fluxos de trabalho nos bastidores para reduzir disparidades. Por exemplo, empresas e provedores já estão usando IA para preencher lacunas na codificação e adjudicação de reivindicações, validando códigos de diagnóstico em relação a notas médicas e automatizando processos de pré-autorização para procedimentos diagnósticos comuns.
Ao otimizar essas funções, podemos reduzir drasticamente os custos operacionais, ajudar os consultórios médicos a funcionarem de forma mais eficiente e dar à equipe mais tempo para dedicar aos pacientes, tornando o atendimento exponencialmente mais acessível e acessível.
Cada um de nós tem um papel importante a desempenhar
O fato de termos essas ferramentas incríveis à nossa disposição torna ainda mais imperativo que as utilizemos para erradicar e superar os preconceitos na área da saúde. Infelizmente, não há um órgão certificador nos EUA que regule os esforços para usar a IA para “desviés” na prestação de serviços de saúde e, mesmo para as organizações que apresentaram diretrizes, não há incentivo regulatório para cumpri-las.
Portanto, a responsabilidade recai sobre nós, como profissionais de IA, cientistas de dados, criadores de algoritmos e usuários, de desenvolver uma estratégia consciente para garantir inclusão, diversidade de dados e uso equitativo dessas ferramentas e insights.
Para fazer isso, integração precisa e interoperabilidade são essenciais. Com tantas fontes de dados — de wearables e provedores de laboratório e imagem terceirizados a cuidados primários, trocas de informações de saúde e registros de internação — precisamos integrar todos esses dados para que as peças-chave sejam incluídas, independentemente da formatação de nossa fonte. O setor precisa de normalização de dados, padronização e correspondência de identidade para garantir que dados essenciais do paciente sejam incluídos, mesmo com grafias de nomes ou convenções de nomenclatura diferentes com base em várias culturas e idiomas.
Também devemos construir avaliações de diversidade em nosso processo de desenvolvimento de IA e monitorar o “desvio” em nossas métricas ao longo do tempo. Os profissionais de IA têm a responsabilidade de testar o desempenho do modelo em subgrupos demográficos, conduzir auditorias de viés e entender como o modelo toma decisões. Podemos ter que ir além de suposições baseadas em raça para garantir que nossa análise represente a população para a qual a estamos construindo. Por exemplo, membros da Tribo indígena Pima que vivem na Reserva do Rio Gila, no Arizona, têm taxas extremamente altas de obesidade e diabetes tipo 2, enquanto membros da mesma tribo que vivem do outro lado da fronteira, nas montanhas de Sierra Madre, no México, têm taxas muito mais baixas de obesidade e diabetes, provando que a genética não é o único fator.
Por fim, precisamos que organizações como a Associação Médica Americana, o Escritório do Coordenador Nacional de Tecnologia da Informação em Saúde e organizações especializadas como o Colégio Americano de Obstetrícia e Ginecologia, a Academia Americana de Pediatria, o Colégio Americano de Cardiologia e muitas outras trabalhem juntas para definir padrões e estruturas para troca de dados e acuidade para proteção contra preconceitos.
Ao padronizar o compartilhamento de dados de saúde e expandir HTI-1 e HTI-2 para exigir que os desenvolvedores trabalhem com órgãos de acreditação, ajudamos a garantir a conformidade e corrigir erros passados de desigualdade. Além disso, ao democratizar o acesso a dados completos e precisos do paciente, podemos remover as vendas que perpetuaram o preconceito e usar a IA para resolver disparidades de cuidados por meio de insights mais abrangentes e objetivos.