potongan Ilmuwan Internasional Menyerukan Lebih Banyak Transparansi dalam Riset AI - Unite.AI
Terhubung dengan kami

Etika

Ilmuwan Internasional Menyerukan Lebih Banyak Transparansi dalam Riset AI

Diterbitkan

 on

Sekelompok ilmuwan internasional yang berasal dari berbagai institusi termasuk Princess Margaret Cancer Centre, University of Toronto, Stanford University, Johns Hopkins, Harvard School of Public Health, dan Massachusetts Institute of Technology menyerukan lebih banyak transparansi dalam penelitian kecerdasan buatan (AI). Kekuatan utama di balik seruan ini adalah untuk membebaskan temuan penting yang dapat membantu mempercepat pengobatan kanker berdasarkan penelitian. 

Artikel di mana para ilmuwan meminta jurnal ilmiah untuk meningkatkan standar mereka dalam hal transparansi di antara para peneliti komputasi diterbitkan di Alam pada 14 Oktober 2020. Grup tersebut juga menganjurkan agar kolega mereka merilis kode, model, dan lingkungan komputasi dalam publikasi. 

Makalah itu berjudul “Transparansi dan reproduktifitas dalam kecerdasan buatan. " 

Merilis Detail Studi AI

Dr. Benjamin Haibe-Kains adalah Ilmuwan Senior di Pusat Kanker Princess Margaret dan penulis pertama publikasi ini. 

“Kemajuan ilmiah tergantung pada kemampuan peneliti untuk meneliti hasil penelitian dan mereproduksi temuan utama untuk dipelajari,” kata Dr. Haibe-Kains. “Namun dalam penelitian komputasi, ini belum menjadi kriteria yang tersebar luas agar detail studi AI dapat diakses sepenuhnya. Ini merugikan kemajuan kita.” 

Kekhawatiran muncul setelah studi Google Health yang diterbitkan oleh McKinney et al. dalam jurnal ilmiah utama pada tahun 2020, di mana diklaim bahwa sistem AI dapat mengungguli ahli radiologi manusia dalam hal ketahanan dan kecepatan dalam hal skrining kanker payudara. Studi ini mendapat banyak perhatian media di berbagai publikasi teratas. 

Ketidakmampuan untuk Mereproduksi Model

Salah satu kekhawatiran utama yang muncul setelah penelitian ini adalah bahwa penelitian ini tidak menjelaskan secara menyeluruh metode yang digunakan, serta kode dan modelnya. Kurangnya transparansi berarti para peneliti tidak dapat mempelajari bagaimana model tersebut beroperasi, sehingga model tersebut tidak dapat digunakan oleh institusi lain. 

“Di atas kertas dan teori, McKinney et al. belajar itu indah,” kata Dr. Haibe-Kains. "Tapi jika kita tidak bisa belajar darinya maka itu tidak memiliki nilai ilmiah sama sekali."

Dr. Haibe-Kains bersama-sama ditunjuk sebagai Associate Professor Biofisika Medis di University of Toronto. Dia juga seorang afiliasi di Vector Institute for Artificial Intelligence. 

“Para peneliti lebih terdorong untuk mempublikasikan temuan mereka daripada menghabiskan waktu dan sumber daya untuk memastikan studi mereka dapat direplikasi,” lanjut Dr. Haibe-Kains. “Jurnal rentan terhadap 'hype' AI dan dapat menurunkan standar untuk menerima makalah yang tidak menyertakan semua materi yang diperlukan untuk membuat studi dapat direproduksi — seringkali bertentangan dengan pedoman mereka sendiri.”

Lingkungan ini berarti model AI dapat memakan waktu lebih lama untuk mencapai pengaturan klinis, dan model tersebut tidak dapat direplikasi atau dipelajari oleh para peneliti. 

Kelompok peneliti mengusulkan berbagai kerangka kerja dan platform untuk mengatasi masalah ini dan memungkinkan metode untuk dibagikan. 

“Kami memiliki harapan besar untuk penggunaan AI bagi pasien kanker kami,” kata Dr. Haibe-Kains. “Berbagi dan mengembangkan penemuan kami — itulah dampak ilmiah yang nyata.”

 

Alex McFarland adalah jurnalis dan penulis AI yang mengeksplorasi perkembangan terkini dalam kecerdasan buatan. Dia telah berkolaborasi dengan banyak startup dan publikasi AI di seluruh dunia.