potongan Peneliti Menantang Asumsi Pembelajaran Mesin Lama - Unite.AI
Terhubung dengan kami

Etika

Peneliti Menantang Asumsi Pembelajaran Mesin Lama

Diterbitkan

 on

Para peneliti di Universitas Carnegie Mellon menantang asumsi pembelajaran mesin yang sudah lama ada bahwa ada trade-off antara akurasi dan keadilan dalam algoritma yang digunakan untuk membuat keputusan kebijakan publik. 

Penggunaan pembelajaran mesin meningkat di banyak bidang seperti peradilan pidana, perekrutan, pemberian layanan kesehatan, dan intervensi layanan sosial. Dengan pertumbuhan ini juga muncul kekhawatiran yang meningkat mengenai apakah aplikasi baru ini dapat memperburuk ketidaksetaraan yang ada. Mereka bisa sangat berbahaya bagi ras minoritas atau individu dengan kerugian ekonomi. 

Menyesuaikan Sistem

Ada penyesuaian terus-menerus terhadap data, label, pelatihan model, sistem penilaian, dan aspek lain dari sistem untuk menjaga dari bias. Namun, asumsi teoretisnya adalah bahwa sistem menjadi kurang akurat ketika ada lebih banyak penyesuaian ini. 

Tim di CMU berangkat untuk menantang teori ini dalam sebuah studi baru yang diterbitkan di Kecerdasan Mesin Alam.

Rayid Ghani adalah profesor di Departemen Pembelajaran Mesin (MLD) Sekolah Ilmu Komputer dan Sekolah Tinggi Sistem Informasi dan Kebijakan Publik Heinz. Dia bergabung dengan Kit Rodolfa, seorang ilmuwan riset di MLD; dan Hemank Lamba, seorang peneliti pasca-doktoral di SCS. 

Menguji Aplikasi Dunia Nyata

Para peneliti menguji asumsi ini dalam aplikasi dunia nyata, dan apa yang mereka temukan adalah bahwa trade-off dapat diabaikan di banyak domain kebijakan. 

“Kamu sebenarnya bisa mendapatkan keduanya. Anda tidak harus mengorbankan akurasi untuk membangun sistem yang adil dan merata,” kata Ghani. “Tapi itu memang mengharuskan Anda untuk merancang sistem dengan sengaja agar adil dan merata. Sistem off-the-shelf tidak akan berfungsi.”

Tim berfokus pada situasi di mana sumber daya permintaan terbatas. Alokasi sumber daya ini dibantu oleh pembelajaran mesin.

Mereka berfokus pada sistem di empat bidang:

  • memprioritaskan penjangkauan perawatan kesehatan mental terbatas berdasarkan risiko seseorang kembali ke penjara untuk mengurangi reinkarseminasi;
  • memprediksi pelanggaran keamanan yang serius untuk mengerahkan pengawas perumahan terbatas kota dengan lebih baik;
  • memodelkan risiko siswa yang tidak lulus SMA tepat waktu untuk mengidentifikasi mereka yang paling membutuhkan dukungan tambahan;
  • dan membantu guru mencapai tujuan crowdfunding untuk kebutuhan kelas.

Para peneliti menemukan bahwa model yang dioptimalkan untuk akurasi dapat secara efektif memprediksi hasil yang diinginkan. Namun, mereka juga menunjukkan perbedaan yang cukup besar dalam rekomendasi untuk intervensi. 

Hasil penting datang ketika para peneliti menerapkan penyesuaian pada keluaran model yang menargetkan peningkatan keadilan mereka. Mereka menemukan bahwa tidak ada kehilangan akurasi ketika perbedaan yang disebabkan oleh ras, usia, atau pendapatan dihilangkan. 

“Kami ingin komunitas kecerdasan buatan, ilmu komputer, dan pembelajaran mesin berhenti menerima asumsi pertukaran antara akurasi dan keadilan ini dan mulai dengan sengaja merancang sistem yang memaksimalkan keduanya,” kata Rodolfa. “Kami berharap para pembuat kebijakan akan merangkul pembelajaran mesin sebagai alat dalam pengambilan keputusan mereka untuk membantu mereka mencapai hasil yang adil.”

Alex McFarland adalah jurnalis dan penulis AI yang mengeksplorasi perkembangan terkini dalam kecerdasan buatan. Dia telah berkolaborasi dengan banyak startup dan publikasi AI di seluruh dunia.