Connect with us

Etika

Peneliti Mengembangkan Algoritma yang Ditujukan untuk Mencegah Perilaku Buruk pada AI

mm

Bersama dengan semua kemajuan dan kelebihan kecerdasan buatan yang telah ditunjukkan sejauh ini, ada juga laporan tentang efek sampingan yang tidak diinginkan seperti bias rasial dan gender pada AI. Jadi, seperti sciencealert.com mengajukan pertanyaan “bagaimana ilmuwan dapat memastikan bahwa sistem pemikiran canggih dapat adil, atau bahkan aman?”

Jawabannya mungkin terletak pada laporan oleh peneliti di Stanford dan Universitas Massachusetts Amherst, yang berjudul Mencegah perilaku tidak diinginkan dari mesin pintar. Seperti eurekaalert.org mencatat dalam cerita tentang laporan ini, AI sekarang mulai menangani tugas-tugas sensitif, sehingga “pembuat kebijakan menuntut bahwa ilmuwan komputer menawarkan jaminan bahwa sistem otomatis telah dirancang untuk meminimalkan, jika tidak sepenuhnya menghindari, hasil yang tidak diinginkan seperti risiko berlebihan atau bias rasial dan gender.”

Laporan yang disajikan oleh tim peneliti ini “menguraikan sebuah teknik baru yang menerjemahkan tujuan yang kabur, seperti menghindari bias gender, menjadi kriteria matematika yang tepat yang akan memungkinkan algoritma pembelajaran mesin untuk melatih aplikasi AI untuk menghindari perilaku tersebut.”

Tujuannya adalah, seperti Emma Brunskill, asisten profesor ilmu komputer di Stanford dan penulis senior makalah ini menjelaskan “kita ingin memajukan AI yang menghormati nilai-nilai pengguna manusia dan membenarkan kepercayaan yang kita tempatkan pada sistem otonom.”

Gagasan ini adalah untuk mendefinisikan “tidak aman” atau “tidak adil” hasil atau perilaku dalam istilah matematika. Ini akan, menurut peneliti, membuatnya mungkin “untuk menciptakan algoritma yang dapat belajar dari data tentang cara menghindari hasil yang tidak diinginkan dengan kepercayaan tinggi.”

Tujuan kedua adalah untuk “mengembangkan serangkaian teknik yang akan membuatnya mudah bagi pengguna untuk menentukan jenis perilaku yang tidak diinginkan yang mereka ingin batasi dan memungkinkan perancang pembelajaran mesin untuk memprediksi dengan kepercayaan bahwa sistem yang dilatih menggunakan data masa lalu dapat diandalkan ketika diterapkan dalam keadaan dunia nyata.”

ScienceAlert mengatakan bahwa tim ini menamai sistem baru ini ‘Seldonian’ algoritma, setelah karakter utama dari seri novel sains fiksi Foundation karya Isaac Asimov. Philip Thomas, asisten profesor ilmu komputer di Universitas Massachusetts Amherst dan penulis pertama makalah ini menjelaskan, “Jika saya menggunakan algoritma Seldonian untuk pengobatan diabetes, saya dapat menentukan bahwa perilaku yang tidak diinginkan berarti gula darah yang berbahaya rendah atau hipoglikemia.”

“Saya dapat mengatakan kepada mesin, ‘Saat Anda mencoba meningkatkan pengontrol pada pompa insulin, jangan membuat perubahan yang akan meningkatkan frekuensi hipoglikemia.’ Sebagian besar algoritma tidak memberikan cara untuk meletakkan jenis batasan pada perilaku; itu tidak termasuk dalam desain awal.”

Thomas menambahkan bahwa “kerangka Seldonian ini akan membuatnya lebih mudah bagi perancang pembelajaran mesin untuk membangun instruksi penghindaran perilaku ke dalam semua jenis algoritma, dengan cara yang dapat memungkinkan mereka untuk menilai probabilitas bahwa sistem yang dilatih akan berfungsi dengan baik di dunia nyata.”

Bagi Emma Brunskill, “memikirkan tentang bagaimana kita dapat menciptakan algoritma yang paling menghormati nilai-nilai seperti keselamatan dan keadilan adalah penting karena masyarakat semakin bergantung pada AI.”

Mantan diplomat dan penerjemah untuk PBB, saat ini jurnalis/penulis/peneliti lepas, fokus pada teknologi modern, kecerdasan buatan, dan budaya modern.