Connect with us

Kecerdasan buatan

Tim Peneliti Berusaha Membuat AI yang Dapat Dijelaskan untuk Non-Proliferasi Nuklir dan Keamanan Nuklir

mm

Peneliti dari Pacific Northwest National Laboratory (PNNL) berusaha membuat AI yang dapat dijelaskan untuk tujuan non-proliferasi nuklir dan keamanan nasional. Tujuan adalah membuat keputusan yang dihasilkan oleh model AI transparan untuk setiap keputusan yang melibatkan keamanan nuklir.

Perhatian lebih besar daripada sebelumnya sedang diberikan pada pentingnya model AI yang dapat dijelaskan, dalam upaya untuk memecahkan masalah “black box” dari pembelajaran mesin. Model AI sering dipercaya untuk membuat keputusan kompleks bahkan ketika mereka yang bertanggung jawab untuk melaksanakan keputusan tersebut tidak memahami alasan di balik keputusan tersebut. Semakin tinggi potensi bencana dan bahaya yang dihadapi, semakin penting untuk alasan di balik keputusan tersebut menjadi transparan.

Mungkin tidak perlu memahami alasan di balik klasifikasi jika aplikasi AI melakukan sesuatu yang sederhana seperti mengklasifikasikan gambar buah, tetapi untuk kasus yang melibatkan senjata nuklir atau produksi bahan nuklir, lebih baik untuk membuka “black box” yang mendasari AI yang digunakan dalam skenario ini.

Ilmuwan PNNL bekerja untuk membuat AI yang dapat dijelaskan menggunakan berbagai teknik baru. Peneliti ini bekerja bersama dengan Kantor Penelitian dan Pengembangan Non-Proliferasi Nuklir Pertahanan (DNN R&D) dari Administrasi Keamanan Nuklir Nasional Departemen Energi (NNSA). DNN R&D bertanggung jawab untuk mengawasi kemampuan Amerika Serikat untuk memantau dan mendeteksi produksi bahan nuklir, pengembangan senjata nuklir, dan detonasi senjata nuklir di seluruh dunia.

Mengingat risiko yang sangat tinggi ketika datang ke masalah yang terkait dengan non-proliferasi nuklir, sangat penting untuk mengetahui bagaimana sistem AI mencapai kesimpulan tentang masalah ini. Angie Sheffield adalah manajer program senior di DNN R&D. Menurut Sheffield, seringkali sulit untuk mengintegrasikan teknologi baru seperti model AI ke dalam teknik dan kerangka ilmiah tradisional, tetapi proses integrasi AI ke dalam sistem ini dapat dibuat lebih mudah dengan merancang cara baru untuk berinteraksi dengan sistem ini lebih efektif. Sheffield berargumentasi bahwa peneliti harus menciptakan alat yang memungkinkan pengembang untuk memahami bagaimana teknik canggih ini bekerja.

Keterbatasan data yang melibatkan ledakan nuklir dan pengembangan senjata nuklir berarti bahwa AI yang dapat dijelaskan menjadi lebih penting. Pelatihan model AI dalam ruang ini menghasilkan model yang mungkin kurang dapat diandalkan karena keterbatasan data yang relatif sedikit dibandingkan dengan tugas seperti pengenalan wajah. Akibatnya, setiap langkah proses yang digunakan oleh model untuk membuat keputusan perlu dapat diinspeksi.

Mark Greaves, seorang peneliti di PNNL, menjelaskan bahwa risiko yang melekat dalam proliferasi nuklir memerlukan sistem yang dapat memberitahu orang tentang mengapa jawaban tertentu telah dipilih.

Seperti yang dijelaskan oleh Greaves melalui EurekaAlert:

“Jika sistem AI menghasilkan probabilitas yang salah tentang apakah sebuah negara memiliki senjata nuklir, itu adalah masalah dengan skala yang berbeda. Jadi, sistem kami harus setidaknya menghasilkan penjelasan sehingga manusia dapat memeriksa kesimpulan dan menggunakan keahlian mereka sendiri untuk memperbaiki kesenjangan pelatihan AI yang disebabkan oleh keterbatasan data.”

Seperti yang dijelaskan oleh Sheffield, PNNL memiliki dua kekuatan yang akan membantu mereka memecahkan masalah ini. Pertama, PNNL memiliki pengalaman yang cukup dalam bidang AI. Selain itu, tim memiliki pengetahuan domain yang signifikan ketika datang ke bahan nuklir dan senjata. Tim PNNL memahami masalah seperti pengolahan plutonium dan jenis sinyal yang unik untuk pengembangan senjata nuklir. Kombinasi pengalaman AI, pengalaman keamanan nasional, dan pengetahuan domain nuklir berarti bahwa PNNL sangat cocok untuk menangani masalah keamanan nuklir nasional dan AI.

Blogger dan programmer dengan spesialisasi di Machine Learning dan Deep Learning topik. Daniel berharap untuk membantu orang lain menggunakan kekuatan AI untuk kebaikan sosial.