potongan Peneliti Mengembangkan Algoritma yang Ditujukan Untuk Mencegah Perilaku Buruk di AI - Unite.AI
Terhubung dengan kami

Etika

Peneliti Mengembangkan Algoritma yang Ditujukan Untuk Mencegah Perilaku Buruk di AI

mm
Updated on

Seiring dengan semua kemajuan dan keuntungan yang telah ditunjukkan oleh kecerdasan buatan sejauh ini, ada juga laporan tentang efek samping yang tidak diinginkan seperti bias ras dan gender dalam AI. Begitu pula sciencealert.com mengajukan pertanyaan “bagaimana para ilmuwan dapat memastikan bahwa sistem berpikir maju bisa adil, atau bahkan aman?”

Jawabannya mungkin terletak pada laporan para peneliti di Stanford dan University of Massachusetts Amherst, Berjudul Mencegah perilaku mesin cerdas yang tidak diinginkan. Sebagai eurekaalert.org catatan dalam ceritanya tentang laporan ini, AI sekarang mulai menangani tugas sensitif, jadi “pembuat kebijakan bersikeras bahwa ilmuwan komputer menawarkan jaminan bahwa sistem otomatis telah dirancang untuk meminimalkan, jika tidak sepenuhnya menghindari, hasil yang tidak diinginkan seperti risiko berlebihan atau rasial dan bias gender.”

Laporan yang disajikan tim peneliti ini “menguraikan teknik baru yang menerjemahkan tujuan kabur, seperti menghindari bias gender, ke dalam kriteria matematika yang tepat yang akan memungkinkan algoritme pembelajaran mesin untuk melatih aplikasi AI untuk menghindari perilaku tersebut.”

Tujuannya adalah, sebagai Emma Brunskill, asisten profesor ilmu komputer di Stanford dan penulis senior makalah tersebut menunjukkan "kami ingin memajukan AI yang menghargai nilai-nilai pengguna manusianya dan membenarkan kepercayaan yang kami berikan pada sistem otonom."

Idenya adalah untuk mendefinisikan hasil atau perilaku yang “tidak aman” atau “tidak adil” dalam istilah matematika. Ini akan, menurut para peneliti, memungkinkan "untuk membuat algoritme yang dapat belajar dari data tentang cara menghindari hasil yang tidak diinginkan ini dengan keyakinan tinggi".

Tujuan kedua adalah untuk “mengembangkan serangkaian teknik yang akan memudahkan pengguna untuk menentukan jenis perilaku yang tidak diinginkan yang ingin mereka batasi dan memungkinkan perancang pembelajaran mesin untuk memprediksi dengan yakin bahwa sistem yang dilatih menggunakan data masa lalu dapat diandalkan ketika diterapkan secara nyata. keadaan dunia.”

ScienceAlert mengatakan bahwa tim menamai sistem baru ini  Algoritme 'Seldonian', diambil dari karakter sentral Isaac Asimov yang terkenal Prinsip Dasar seri novel fiksi ilmiah. Philip Thomas, asisten profesor ilmu komputer di University of Massachusetts Amherst dan penulis pertama catatan kertas, “Jika saya menggunakan algoritme Seldonian untuk diabetes pengobatan, saya dapat menentukan bahwa perilaku yang tidak diinginkan berarti gula darah rendah atau hipoglikemia yang berbahaya. 

“Saya dapat mengatakan kepada mesin, 'Sementara Anda mencoba meningkatkan pengontrol di pompa insulin, jangan membuat perubahan yang akan meningkatkan frekuensi hipoglikemia.' Sebagian besar algoritme tidak memberi Anda cara untuk membatasi jenis perilaku ini; itu tidak termasuk dalam desain awal.

Tomas menambahkan bahwa “kerangka kerja Seldonian ini akan mempermudah perancang pembelajaran mesin untuk membangun instruksi penghindaran perilaku ke dalam semua jenis algoritme, dengan cara yang memungkinkan mereka menilai kemungkinan bahwa sistem yang dilatih akan berfungsi dengan baik di dunia nyata.”

Sementara itu, Emma Brunskill juga mencatat hal itu “Memikirkan tentang bagaimana kita dapat membuat algoritme yang paling menghargai nilai-nilai seperti keamanan dan keadilan sangat penting karena masyarakat semakin bergantung pada AI.”

Mantan diplomat dan penerjemah untuk PBB, saat ini jurnalis/penulis/peneliti lepas, dengan fokus pada teknologi modern, kecerdasan buatan, dan budaya modern.