taló Científics internacionals demanen més transparència en la investigació en IA - Unite.AI
Connecteu-vos amb nosaltres

ètica

Científics internacionals demanen més transparència en la investigació en IA

publicat

 on

Un grup de científics internacionals procedents de diverses institucions, com ara el Princess Margaret Cancer Center, la Universitat de Toronto, la Universitat de Stanford, Johns Hopkins, l'Escola de Salut Pública de Harvard i l'Institut Tecnològic de Massachusetts, demanen més transparència en la investigació en intel·ligència artificial (IA). La força principal darrere d'aquesta convocatòria és alliberar troballes importants que podrien ajudar a accelerar el tractament del càncer basat en la investigació. 

L'article en què els científics demanen a les revistes científiques que augmentin els seus estàndards pel que fa a la transparència entre els investigadors computacionals es va publicar a Nature el 14 d'octubre de 2020. El grup també va defensar que els seus col·legues publiquessin codi, model i entorns computacionals a les publicacions. 

El document es titulava "Transparència i reproductibilitat en intel·ligència artificial". 

Publicació dels detalls de l'estudi d'IA

El doctor Benjamin Haibe-Kains és científic sènior del Princess Margaret Cancer Center i primer autor de la publicació. 

"El progrés científic depèn de la capacitat dels investigadors per examinar els resultats d'un estudi i reproduir la principal troballa de la qual aprendre", diu el doctor Haibe-Kains. "Però en la investigació computacional, encara no és un criteri molt estès perquè els detalls d'un estudi d'IA siguin totalment accessibles. Això és perjudicial per al nostre progrés". 

Les preocupacions van sorgir després d'un estudi de Google Health que va ser publicat per McKinney et al. en una revista científica important l'any 2020, en la qual es va afirmar que un sistema d'IA podria superar els radiòlegs humans en robustesa i velocitat quan es tracta de cribratge del càncer de mama. L'estudi va rebre molta atenció als mitjans a través de diverses publicacions principals. 

Impossibilitat de reproduir models

Una de les principals preocupacions que va sorgir després de l'estudi va ser que no descrivia a fons els mètodes utilitzats, així com el codi i els models. Aquesta manca de transparència va fer que els investigadors no poguessin aprendre com funciona el model, la qual cosa va fer que el model no pogués ser utilitzat per altres institucions. 

"En paper i en teoria, McKinney et al. l'estudi és bonic", diu el doctor Haibe-Kains. "Però si no podem aprendre d'això, té poc o cap valor científic".

El Dr. Haibe-Kains va ser nomenat conjuntament com a professor associat de biofísica mèdica a la Universitat de Toronto. També és afiliat al Vector Institute for Artificial Intelligence. 

"Els investigadors estan més incentivats a publicar la seva troballa en lloc de gastar temps i recursos per garantir que el seu estudi es pugui replicar", continua el Dr. Haibe-Kains. "Les revistes són vulnerables a l'"exageració" de la IA i poden reduir els estàndards per acceptar articles que no inclouen tots els materials necessaris per fer que l'estudi sigui reproduïble, sovint en contradicció amb les seves pròpies directrius".

Aquest entorn significa que els models d'IA podrien trigar més a arribar als entorns clínics i els investigadors no poden reproduir-los ni aprendre'n. 

El grup d'investigadors va proposar diversos marcs i plataformes per solucionar aquest problema i permetre compartir els mètodes. 

"Tenim grans esperances en la utilitat de la IA per als nostres pacients amb càncer", diu el doctor Haibe-Kains. "Compartir i construir sobre els nostres descobriments, això és un impacte científic real".

 

Alex McFarland és un periodista i escriptor d'IA que explora els últims desenvolupaments en intel·ligència artificial. Ha col·laborat amb nombroses startups i publicacions d'IA a tot el món.