Etică
Oamenii de știință internaționali cer mai multă transparență în cercetarea IA

Un grup de oameni de știință internaționali proveniți din diverse instituții, inclusiv Princess Margaret Cancer Centre, University of Toronto, Stanford University, Johns Hopkins, Harvard School of Public Health și Massachusetts Institute of Technology, cer mai multă transparență în cadrul cercetării inteligenței artificiale (IA). Forța principală din spatele acestui apel este de a elibera rezultate importante care ar putea ajuta la accelerarea tratamentului cancerului pe baza cercetării.
Articolul în care oamenii de știință au cerut revistelor științifice să-și ridice standardele în ceea ce privește transparența în rândul cercetătorilor computaționali a fost publicat în Nature pe 14 octombrie 2020. Grupul a susținut, de asemenea, că colegii lor ar trebui să publice codul, modelul și mediile de calcul în publicații.
Articolul a fost intitulat „Transparență și reprodusibilitate în inteligența artificială.”
Publicarea detaliilor studiilor IA
Dr. Benjamin Haibe-Kains este cercetător senior la Princess Margaret Cancer Centre și autor principal al publicației.
„Progresul științific depinde de capacitatea cercetătorilor de a examina rezultatele unui studiu și de a reproduce principalele constatări pentru a învăța,” spune dr. Haibe-Kains. „Dar în cercetarea computațională, nu este încă un criteriu răspândit ca detalii ale unui studiu IA să fie pe deplin accesibile. Acest lucru este dăunător progresului nostru.”
Îngrijorările au apărut după un studiu al Google Health, publicat de McKinney et al. într-o revistă științifică importantă în 2020, în care s-a afirmat că un sistem IA ar putea depăși radiologii umani în robustețe și viteză în ceea ce privește screeningul cancerului de sân. Studiul a primit o atenție mare din partea mass-media în diverse publicații de top.
Incapacitatea de a reproduce modelele
Una dintre principalele îngrijorări care au apărut după studiu a fost că nu a descris pe deplin metodele utilizate, precum și codul și modelele. Lipsa de transparență a însemnat că cercetătorii nu au putut învăța cum funcționează modelul, ceea ce a dus la faptul că modelul nu a putut fi utilizat de alte instituții.
„În teorie și pe hârtie, studiul McKinney et al. este frumos,” spune dr. Haibe-Kains. „Dar dacă nu putem învăța de pe urma lui, atunci are o valoare științifică mică sau deloc.”
Dr. Haibe-Kains a fost numit în comun profesor asociat în biofizică medicală la University of Toronto. El este, de asemenea, afiliat la Vector Institute for Artificial Intelligence.
„Cercetătorii sunt mai motivați să-și publice constatările decât să cheltuiască timp și resurse asigurându-se că studiul lor poate fi replicat,” continuă dr. Haibe-Kains. „Revistele sunt vulnerabile la „hype”-ul IA și pot reduce standardele pentru acceptarea articolelor care nu includ toate materialele necesare pentru a face studiul reprodusibil — adesea în contradicție cu propriile lor ghiduri.”
Acest mediu înseamnă că modelele IA ar putea dura mai mult pentru a ajunge în mediile clinice, iar modelele nu pot fi replicate sau învățate de către cercetători.
Grupul de cercetători a propus diverse cadre și platforme pentru a remedia această problemă și pentru a permite ca metodele să fie împărtășite.
„Avem speranțe mari pentru utilitatea IA pentru pacienții noștri cu cancer,” spune dr. Haibe-Kains. „Împărtășirea și construirea pe descoperirile noastre — aceasta este o adevărată impact științific.”












