Entre em contato

Cientistas internacionais pedem mais transparĂȘncia na pesquisa de IA

Ética

Cientistas internacionais pedem mais transparĂȘncia na pesquisa de IA

mm

Um grupo de cientistas internacionais provenientes de vĂĄrias instituiçÔes, incluindo Princess Margaret Cancer Center, University of Toronto, Stanford University, Johns Hopkins, Harvard School of Public Health e Massachusetts Institute of Technology, estĂŁo pedindo mais transparĂȘncia na pesquisa de inteligĂȘncia artificial (IA). A principal força por trĂĄs dessa chamada Ă© liberar descobertas importantes que poderiam ajudar a acelerar o tratamento do cĂąncer com base na pesquisa. 

Foi publicado no Natureza em 14 de outubro de 2020. O grupo tambĂ©m defendeu que seus colegas liberem cĂłdigo, modelo e ambientes computacionais em publicaçÔes. 

O papel foi intitulado “TransparĂȘncia e reprodutibilidade em inteligĂȘncia artificial. " 

Liberando detalhes do estudo de IA

O Dr. Benjamin Haibe-Kains Ă© cientista sĂȘnior do Princess Margaret Cancer Center e primeiro autor da publicação. 

“O progresso cientĂ­fico depende da capacidade dos pesquisadores de examinar os resultados de um estudo e reproduzir a principal descoberta para aprender”, diz o Dr. Haibe-Kains. “Mas na pesquisa computacional, ainda nĂŁo Ă© um critĂ©rio amplamente difundido para que os detalhes de um estudo de IA sejam totalmente acessĂ­veis. Isso Ă© prejudicial ao nosso progresso.” 

As preocupaçÔes surgiram apĂłs um estudo do Google Health publicado por McKinney et al. em uma importante revista cientĂ­fica em 2020, na qual foi afirmado que um sistema de IA poderia superar os radiologistas humanos em robustez e velocidade quando se trata de rastreamento de cĂąncer de mama. O estudo recebeu muita atenção da mĂ­dia em vĂĄrias publicaçÔes importantes. 

Incapacidade de reproduzir modelos

Uma das grandes preocupaçÔes que surgiram apĂłs o estudo foi que ele nĂŁo descreveu minuciosamente os mĂ©todos utilizados, bem como o cĂłdigo e os modelos. Essa falta de transparĂȘncia fez com que os pesquisadores nĂŁo pudessem aprender como o modelo funciona, fazendo com que o modelo nĂŁo pudesse ser usado por outras instituiçÔes. 

“No papel e na teoria, o McKinney et al. estudo Ă© lindo”, diz o Dr. Haibe-Kains. “Mas se nĂŁo podemos aprender com isso, entĂŁo tem pouco ou nenhum valor cientĂ­fico.”

O Dr. Haibe-Kains foi nomeado conjuntamente como Professor Associado em BiofĂ­sica MĂ©dica na Universidade de Toronto. Ele tambĂ©m Ă© afiliado do Vector Institute for Artificial Intelligence. 

“Pesquisadores sĂŁo mais incentivados a publicar suas descobertas do que a investir tempo e recursos garantindo que seu estudo possa ser replicado”, continua a Dra. Haibe-Kains. “Revistas cientĂ­ficas sĂŁo vulnerĂĄveis ​​ao 'hype' da IA ​​e podem reduzir os padrĂ”es de aceitação de artigos que nĂŁo incluam todos os materiais necessĂĄrios para tornar o estudo reproduzĂ­vel — muitas vezes em contradição com suas prĂłprias diretrizes.”

Esse ambiente significa que os modelos de IA podem levar mais tempo para chegar Ă s configuraçÔes clĂ­nicas e os modelos nĂŁo podem ser replicados ou aprendidos pelos pesquisadores. 

O grupo de pesquisadores propĂŽs vĂĄrias estruturas e plataformas para remediar esse problema e permitir que os mĂ©todos fossem compartilhados. 

“Temos grandes esperanças na utilidade da IA ​​para nossos pacientes com cĂąncer”, diz o Dr. Haibe-Kains. “Compartilhar e desenvolver nossas descobertas – isso Ă© um verdadeiro impacto cientĂ­fico.”

 

Alex McFarland Ă© um jornalista e escritor de IA que explora os mais recentes desenvolvimentos em inteligĂȘncia artificial. Ele colaborou com inĂșmeras startups e publicaçÔes de IA em todo o mundo.