Connect with us

Kecerdasan buatan

Tim Pengembang Mengembangkan Pendekatan untuk Membandingkan Jaringan Saraf

mm

Sebuah tim peneliti di Los Alamos National Laboratory telah mengembangkan pendekatan baru untuk membandingkan jaringan saraf. Menurut tim, pendekatan baru ini melihat ke dalam “kotak hitam” kecerdasan buatan (AI), dan membantu mereka memahami perilaku jaringan saraf. Jaringan saraf, yang mengenali pola dalam dataset, digunakan untuk berbagai aplikasi seperti sistem pengenalan wajah dan kendaraan otonom. 

Tim tersebut mempresentasikan makalah mereka, “If You’ve Trained One You’ve Trained Them All: Inter-Architecture Similarity Increases With Robustness,” di Konferensi pada Ketidakpastian Kecerdasan Buatan. 

Haydn Jones adalah seorang peneliti di grup Penelitian Lanjutan di Sistem Siber di Los Alamos dan penulis utama makalah penelitian. 

Memahami Jaringan Saraf yang Lebih Baik 

“Komunitas penelitian kecerdasan buatan tidak selalu memiliki pemahaman yang lengkap tentang apa yang dilakukan jaringan saraf; mereka memberikan hasil yang baik, tetapi kita tidak tahu bagaimana atau mengapa,” kata Jones. “Metode baru kami melakukan pekerjaan yang lebih baik dalam membandingkan jaringan saraf, yang merupakan langkah penting menuju pemahaman yang lebih baik tentang matematika di balik AI. 

Penelitian baru ini juga akan memainkan peran dalam membantu para ahli memahami perilaku jaringan saraf yang kuat. 

Sementara jaringan saraf memiliki kinerja tinggi, mereka juga rapuh. Perubahan kecil dalam kondisi, seperti tanda berhenti yang sebagian tertutup yang diproses oleh kendaraan otonom, dapat menyebabkan jaringan saraf salah mengidentifikasi tanda. Ini berarti mereka mungkin tidak pernah berhenti, yang dapat membahayakan. 

Pelatihan Jaringan Saraf Adversarial

Peneliti mencoba untuk meningkatkan jaringan saraf ini dengan melihat cara untuk meningkatkan ketahanan jaringan. Salah satu pendekatan melibatkan “menyerang” jaringan selama proses pelatihan, di mana peneliti sengaja memperkenalkan kesalahan saat melatih AI untuk mengabaikannya. Proses ini, yang disebut pelatihan adversarial, membuat jaringan lebih sulit untuk ditipu. 

Tim menerapkan metrik baru kesamaan jaringan pada jaringan saraf yang dilatih secara adversarial. Mereka terkejut menemukan bahwa pelatihan adversarial menyebabkan jaringan saraf di domain penglihatan komputer berkumpul pada representasi data yang sama, tidak peduli arsitektur jaringan, karena besarnya serangan meningkat. 

“Kami menemukan bahwa ketika kami melatih jaringan saraf untuk menjadi tahan terhadap serangan adversarial, mereka mulai melakukan hal yang sama,” kata Jones. 

Ini bukan pertama kalinya para ahli mencari arsitektur yang sempurna untuk jaringan saraf. Namun, temuan baru ini menunjukkan bahwa pengenalan pelatihan adversarial menutup kesenjangan secara substansial, yang berarti komunitas penelitian AI mungkin tidak perlu menjelajahi banyak arsitektur baru karena sekarang diketahui bahwa pelatihan adversarial menyebabkan arsitektur yang beragam berkumpul pada solusi yang sama. 

“Dengan menemukan bahwa jaringan saraf yang kuat mirip satu sama lain, kami membuatnya lebih mudah untuk memahami bagaimana AI yang kuat mungkin benar-benar bekerja,” kata Jones. “Kami mungkin bahkan menemukan petunjuk tentang bagaimana persepsi terjadi pada manusia dan hewan lain.”

Alex McFarland adalah seorang jurnalis dan penulis AI yang menjelajahi perkembangan terbaru dalam kecerdasan buatan. Ia telah berkolaborasi dengan berbagai startup dan publikasi AI di seluruh dunia.