Ătica
Cientistas internacionais pedem mais transparĂȘncia na pesquisa de IA

Um grupo de cientistas internacionais provenientes de vĂĄrias instituiçÔes, incluindo Princess Margaret Cancer Center, University of Toronto, Stanford University, Johns Hopkins, Harvard School of Public Health e Massachusetts Institute of Technology, estĂŁo pedindo mais transparĂȘncia na pesquisa de inteligĂȘncia artificial (IA). A principal força por trĂĄs dessa chamada Ă© liberar descobertas importantes que poderiam ajudar a acelerar o tratamento do cĂąncer com base na pesquisa.
Foi publicado no Natureza em 14 de outubro de 2020. O grupo também defendeu que seus colegas liberem código, modelo e ambientes computacionais em publicaçÔes.
O papel foi intitulado âTransparĂȘncia e reprodutibilidade em inteligĂȘncia artificial. "
Liberando detalhes do estudo de IA
O Dr. Benjamin Haibe-Kains Ă© cientista sĂȘnior do Princess Margaret Cancer Center e primeiro autor da publicação.
âO progresso cientĂfico depende da capacidade dos pesquisadores de examinar os resultados de um estudo e reproduzir a principal descoberta para aprenderâ, diz o Dr. Haibe-Kains. âMas na pesquisa computacional, ainda nĂŁo Ă© um critĂ©rio amplamente difundido para que os detalhes de um estudo de IA sejam totalmente acessĂveis. Isso Ă© prejudicial ao nosso progresso.â
As preocupaçÔes surgiram apĂłs um estudo do Google Health publicado por McKinney et al. em uma importante revista cientĂfica em 2020, na qual foi afirmado que um sistema de IA poderia superar os radiologistas humanos em robustez e velocidade quando se trata de rastreamento de cĂąncer de mama. O estudo recebeu muita atenção da mĂdia em vĂĄrias publicaçÔes importantes.
Incapacidade de reproduzir modelos
Uma das grandes preocupaçÔes que surgiram apĂłs o estudo foi que ele nĂŁo descreveu minuciosamente os mĂ©todos utilizados, bem como o cĂłdigo e os modelos. Essa falta de transparĂȘncia fez com que os pesquisadores nĂŁo pudessem aprender como o modelo funciona, fazendo com que o modelo nĂŁo pudesse ser usado por outras instituiçÔes.
âNo papel e na teoria, o McKinney et al. estudo Ă© lindoâ, diz o Dr. Haibe-Kains. âMas se nĂŁo podemos aprender com isso, entĂŁo tem pouco ou nenhum valor cientĂfico.â
O Dr. Haibe-Kains foi nomeado conjuntamente como Professor Associado em BiofĂsica MĂ©dica na Universidade de Toronto. Ele tambĂ©m Ă© afiliado do Vector Institute for Artificial Intelligence.
âPesquisadores sĂŁo mais incentivados a publicar suas descobertas do que a investir tempo e recursos garantindo que seu estudo possa ser replicadoâ, continua a Dra. Haibe-Kains. âRevistas cientĂficas sĂŁo vulnerĂĄveis ââao 'hype' da IA ââe podem reduzir os padrĂ”es de aceitação de artigos que nĂŁo incluam todos os materiais necessĂĄrios para tornar o estudo reproduzĂvel â muitas vezes em contradição com suas prĂłprias diretrizes.â
Esse ambiente significa que os modelos de IA podem levar mais tempo para chegar Ă s configuraçÔes clĂnicas e os modelos nĂŁo podem ser replicados ou aprendidos pelos pesquisadores.
O grupo de pesquisadores propÎs vårias estruturas e plataformas para remediar esse problema e permitir que os métodos fossem compartilhados.
âTemos grandes esperanças na utilidade da IA ââpara nossos pacientes com cĂąncerâ, diz o Dr. Haibe-Kains. âCompartilhar e desenvolver nossas descobertas â isso Ă© um verdadeiro impacto cientĂfico.â