Connect with us

Kecerdasan buatan

AI Dapat Menghindari Perilaku Tidak Diinginkan Tertentu Dengan Algoritma Baru

mm

Ketika algoritma dan sistem kecerdasan buatan menjadi lebih canggih dan mengambil tanggung jawab yang lebih besar, menjadi semakin penting untuk memastikan bahwa sistem AI menghindari perilaku berbahaya yang tidak diinginkan. Baru-baru ini, sebuah tim peneliti dari University of Massachusetts Amherst dan Stanford menerbitkan sebuah makalah yang menunjukkan bagaimana perilaku AI tertentu dapat dihindari, melalui penggunaan teknik yang menghasilkan instruksi matematika yang tepat yang dapat digunakan untuk mengatur perilaku AI.

Menurut TechXplore, penelitian ini didasarkan pada asumsi bahwa perilaku tidak adil/tidak aman dapat didefinisikan dengan fungsi dan variabel matematika. Jika ini benar, maka seharusnya memungkinkan peneliti untuk melatih sistem untuk menghindari perilaku tertentu. Tim peneliti bertujuan untuk mengembangkan sebuah toolkit yang dapat digunakan oleh pengguna AI untuk menentukan perilaku yang ingin mereka hindari, dan memungkinkan insinyur AI untuk melatih sistem yang dapat menghindari tindakan tidak diinginkan ketika digunakan dalam skenario dunia nyata.

Phillip Thomas, penulis pertama makalah dan asisten profesor ilmu komputer di U of Michigan Amherst, menjelaskan bahwa tim peneliti bertujuan untuk menunjukkan bahwa perancang algoritma pembelajaran mesin dapat membuatnya lebih mudah bagi pengguna AI untuk mendeskripsikan perilaku yang tidak diinginkan dan membuatnya sangat mungkin bahwa sistem AI akan menghindari perilaku tersebut.

Tim peneliti menguji teknik mereka dengan menerapkannya pada masalah umum dalam ilmu data, yaitu bias gender. Tim peneliti bertujuan untuk membuat algoritma yang digunakan untuk memprediksi GPA mahasiswa lebih adil dengan mengurangi bias gender. Tim peneliti menggunakan dataset eksperimental dan menginstruksikan sistem AI mereka untuk menghindari pembuatan model yang secara keseluruhan meremehkan/mengoverestimasi GPA untuk satu jenis kelamin. Sebagai hasil dari instruksi peneliti, algoritma membuat model yang lebih baik dalam memprediksi GPA mahasiswa dan memiliki bias sistemik gender yang jauh lebih sedikit dibandingkan dengan model sebelumnya. Model prediksi GPA sebelumnya menderita bias karena model pengurangan bias seringkali terlalu terbatas untuk digunakan, atau tidak ada pengurangan bias yang digunakan sama sekali.

Algoritma lain juga dikembangkan oleh tim peneliti. Algoritma ini diimplementasikan dalam pompa insulin otomatis, dan algoritma ini dimaksudkan untuk menyeimbangkan kinerja dan keamanan. Pompa insulin otomatis perlu memutuskan seberapa besar dosis insulin yang harus diberikan kepada pasien setelah makan. Pompa idealnya akan memberikan dosis insulin yang cukup besar untuk menjaga kadar gula darah tetap terkendali. Dosis insulin yang diberikan harus tidak terlalu besar atau terlalu kecil.

Algoritma pembelajaran mesin sudah mahir dalam mengidentifikasi pola dalam respons individu terhadap dosis insulin, tetapi metode analisis yang ada tidak dapat membiarkan dokter menentukan hasil yang harus dihindari, seperti kecelakaan gula darah rendah. Sebaliknya, tim peneliti dapat mengembangkan metode yang dapat dilatih untuk memberikan dosis insulin yang tetap dalam dua ekstrem, mencegah baik underdosing atau overdosing. Meskipun sistem belum siap untuk diuji pada pasien nyata, AI yang lebih canggih berdasarkan pendekatan ini dapat meningkatkan kualitas hidup bagi mereka yang menderita diabetes.

Dalam makalah penelitian, peneliti menyebut algoritma ini sebagai “Seledonian” algoritma. Ini merujuk pada tiga hukum robotika yang dijelaskan oleh penulis fiksi ilmiah Isaac Asimov. Implikasinya adalah bahwa sistem AI “tidak boleh melukai manusia atau, melalui ketidakaktifan, membiarkan manusia terluka.” Tim peneliti berharap bahwa kerangka kerja mereka akan memungkinkan peneliti dan insinyur AI untuk menciptakan berbagai algoritma dan sistem yang menghindari perilaku berbahaya. Emma Brunskill, penulis senior makalah dan asisten profesor ilmu komputer Stanford, menjelaskan kepada TechXplore:

“Kami ingin memajukan AI yang menghormati nilai-nilai pengguna manusia dan membenarkan kepercayaan yang kita tempatkan pada sistem otonom.”

Blogger dan programmer dengan spesialisasi di Machine Learning dan Deep Learning topik. Daniel berharap untuk membantu orang lain menggunakan kekuatan AI untuk kebaikan sosial.