potongan Peneliti AI Mengusulkan Menempatkan Bounty pada AI Bias untuk Membuat AI Lebih Etis - Unite.AI
Terhubung dengan kami

Etika

Peneliti AI Mengusulkan Menempatkan Bounty pada AI Bias untuk Membuat AI Lebih Etis

mm

Diterbitkan

 on

Tim peneliti AI dari perusahaan dan laboratorium pengembangan AI seperti Intel, Google Brain, dan OpenAI telah merekomendasikan penggunaan bounty untuk membantu memastikan penggunaan AI secara etis. Tim peneliti baru-baru ini merilis sejumlah proposal mengenai penggunaan AI yang etis, dan mereka memasukkan saran bahwa memberi penghargaan kepada orang-orang yang menemukan bias dalam AI bisa menjadi cara yang efektif untuk membuat AI lebih adil.

Seperti yang dilaporkan VentureBeat, peneliti dari berbagai perusahaan di seluruh AS dan Eropa bergabung untuk menyusun serangkaian pedoman etika untuk pengembangan AI, serta saran tentang cara memenuhi pedoman tersebut. Salah satu saran yang dibuat para peneliti adalah menawarkan hadiah kepada pengembang yang menemukan bias dalam program AI. Saran tersebut tertuang dalam makalah berjudul “Menuju Pengembangan AI yang Tepercaya: Mekanisme untuk Mendukung Klaim yang Dapat Diverifikasi".

Sebagai contoh bias yang ingin ditangani oleh tim peneliti, data dan algoritme yang bias telah ditemukan dalam segala hal mulai dari aplikasi layanan kesehatan hingga sistem pengenalan wajah yang digunakan oleh penegak hukum. Salah satu kejadian bias tersebut adalah alat penilaian risiko POLA yang baru-baru ini digunakan oleh Departemen Kehakiman AS untuk melakukan triase tahanan dan memutuskan mana yang dapat dipulangkan saat mengurangi ukuran populasi penjara sebagai tanggapan terhadap pandemi virus corona.

Praktik memberi penghargaan kepada pengembang karena menemukan perilaku yang tidak diinginkan dalam program komputer adalah yang lama, tetapi ini mungkin pertama kalinya dewan etika AI secara serius mengajukan ide sebagai opsi untuk memerangi bias AI. Meskipun tidak mungkin ada cukup banyak pengembang AI untuk menemukan cukup banyak bias sehingga AI dapat dipastikan etis, ini tetap akan membantu perusahaan mengurangi bias secara keseluruhan dan memahami jenis bias apa yang bocor ke dalam sistem AI mereka.

Para penulis makalah menjelaskan bahwa konsep bug-bounty dapat diperluas ke AI dengan penggunaan bias dan safety bounty dan bahwa penggunaan yang tepat dari teknik ini dapat menghasilkan kumpulan data dan model yang terdokumentasi dengan lebih baik. Dokumentasi akan lebih mencerminkan keterbatasan model dan data. Para peneliti bahkan mencatat bahwa ide yang sama dapat diterapkan pada properti AI lainnya seperti interpretabilitas, keamanan, dan perlindungan privasi.

Karena semakin banyak diskusi terjadi seputar prinsip etika AI, banyak yang mencatat bahwa prinsip saja tidak cukup dan tindakan harus diambil untuk menjaga AI tetap etis. Penulis makalah mencatat bahwa “peraturan dan norma yang ada di industri dan akademisi tidak cukup untuk memastikan pengembangan AI yang bertanggung jawab.” Salah satu pendiri Google Brain dan pemimpin industri AI Andrew Ng juga berpendapat bahwa prinsip panduan saja tidak memiliki kemampuan untuk memastikan bahwa AI digunakan secara bertanggung jawab dan adil, dengan mengatakan bahwa banyak dari prinsip tersebut harus lebih eksplisit dan memiliki ide yang dapat ditindaklanjuti.

Rekomendasi perburuan hadiah bias dari tim peneliti gabungan adalah upaya untuk bergerak melampaui prinsip etis ke area tindakan etis. Tim peneliti juga membuat sejumlah rekomendasi lain yang bisa memacu tindakan etis di bidang AI.

Tim peneliti membuat sejumlah rekomendasi lain yang dapat diikuti perusahaan agar penggunaan AI mereka lebih etis. Mereka menyarankan bahwa database insiden AI terpusat harus dibuat dan dibagikan di antara komunitas AI yang lebih luas. Demikian pula, para peneliti mengusulkan bahwa jejak audit harus ditetapkan dan bahwa jejak ini harus menyimpan informasi terkait pembuatan dan penyebaran aplikasi kritis keselamatan di platform AI.

Untuk menjaga privasi orang, tim peneliti menyarankan agar teknik yang berpusat pada privasi seperti komunikasi terenkripsi, pembelajaran gabungan, dan privasi diferensial harus diterapkan. Selain itu, tim peneliti menyarankan agar alternatif sumber terbuka harus tersedia secara luas dan model AI komersial harus diteliti secara mendalam. Terakhir, tim peneliti menyarankan agar pendanaan pemerintah ditingkatkan sehingga peneliti akademis dapat memverifikasi klaim kinerja perangkat keras.