Ética
Cientistas internacionais pedem mais transparência na pesquisa de IA

Um grupo de cientistas internacionais provenientes de várias instituições, incluindo Princess Margaret Cancer Center, University of Toronto, Stanford University, Johns Hopkins, Harvard School of Public Health e Massachusetts Institute of Technology, estão pedindo mais transparência na pesquisa de inteligência artificial (IA). A principal força por trás dessa chamada é liberar descobertas importantes que poderiam ajudar a acelerar o tratamento do câncer com base na pesquisa.
Foi publicado no Natureza em 14 de outubro de 2020. O grupo também defendeu que seus colegas liberem código, modelo e ambientes computacionais em publicações.
O papel foi intitulado “Transparência e reprodutibilidade em inteligência artificial. "
Liberando detalhes do estudo de IA
O Dr. Benjamin Haibe-Kains é cientista sênior do Princess Margaret Cancer Center e primeiro autor da publicação.
“O progresso científico depende da capacidade dos pesquisadores de examinar os resultados de um estudo e reproduzir a principal descoberta para aprender”, diz o Dr. Haibe-Kains. “Mas na pesquisa computacional, ainda não é um critério amplamente difundido para que os detalhes de um estudo de IA sejam totalmente acessíveis. Isso é prejudicial ao nosso progresso.”
As preocupações surgiram após um estudo do Google Health publicado por McKinney et al. em uma importante revista científica em 2020, na qual foi afirmado que um sistema de IA poderia superar os radiologistas humanos em robustez e velocidade quando se trata de rastreamento de câncer de mama. O estudo recebeu muita atenção da mídia em várias publicações importantes.
Incapacidade de reproduzir modelos
Uma das grandes preocupações que surgiram após o estudo foi que ele não descreveu minuciosamente os métodos utilizados, bem como o código e os modelos. Essa falta de transparência fez com que os pesquisadores não pudessem aprender como o modelo funciona, fazendo com que o modelo não pudesse ser usado por outras instituições.
“No papel e na teoria, o McKinney et al. estudo é lindo”, diz o Dr. Haibe-Kains. “Mas se não podemos aprender com isso, então tem pouco ou nenhum valor científico.”
O Dr. Haibe-Kains foi nomeado conjuntamente como Professor Associado em Biofísica Médica na Universidade de Toronto. Ele também é afiliado do Vector Institute for Artificial Intelligence.
“Pesquisadores são mais incentivados a publicar suas descobertas do que a investir tempo e recursos garantindo que seu estudo possa ser replicado”, continua a Dra. Haibe-Kains. “Revistas científicas são vulneráveis ao 'hype' da IA e podem reduzir os padrões de aceitação de artigos que não incluam todos os materiais necessários para tornar o estudo reproduzível — muitas vezes em contradição com suas próprias diretrizes.”
Esse ambiente significa que os modelos de IA podem levar mais tempo para chegar às configurações clínicas e os modelos não podem ser replicados ou aprendidos pelos pesquisadores.
O grupo de pesquisadores propôs várias estruturas e plataformas para remediar esse problema e permitir que os métodos fossem compartilhados.
“Temos grandes esperanças na utilidade da IA para nossos pacientes com câncer”, diz o Dr. Haibe-Kains. “Compartilhar e desenvolver nossas descobertas – isso é um verdadeiro impacto científico.”












