tunggul Asumsi Umum ngeunaan Kasalahan Pembelajaran Mesin Bisa Salah - Unite.AI
Connect with kami

Kacerdasan buatan

Asumsi Umum ngeunaan Gangguan Pembelajaran Mesin Bisa Salah

diropéa on

Jaringan saraf jero mangrupikeun salah sahiji aspék anu paling dasar tina intelijen buatan (AI), sabab dianggo pikeun ngolah gambar sareng data ngaliwatan modél matematika. Aranjeunna jawab sababaraha kamajuan greatest dina widang, tapi maranéhna ogé malfunctions dina sagala rupa cara. Kasalahan ieu tiasa gaduh dampak anu alit dugi ka teu aya, sapertos kasalahan identifikasi anu sederhana, dugi ka anu langkung dramatis sareng maot, sapertos gangguan nyetir diri.

Panaliti anyar anu kaluar ti Universitas Houston nunjukkeun yén anggapan umum urang ngeunaan gangguan ieu tiasa salah, anu tiasa ngabantosan ngaevaluasi reliabilitas jaringan di hareup.

Makalah ieu diterbitkeun dina Kecerdasan Mesin Alam dina bulan Nopémber.

"Contoh Kasang Tukang"

Pembelajaran mesin sareng jinis AI anu sanés penting dina seueur séktor sareng tugas, sapertos perbankan sareng sistem cybersecurity. Numutkeun ka Cameron Buckner, dosen ahli filsafat di UH, kedah aya pamahaman ngeunaan kagagalan anu dibawa ku "conto musuh." Conto adversarial ieu lumangsung nalika sistem jaringan saraf jero misjudges gambar jeung data sejenna lamun datang di sakuliah informasi luar inputs latihan anu dipaké pikeun ngembangkeun jaringan.

Conto-conto lawan jarang pisan sabab sababaraha kali didamel atanapi dipanggihan ku jaringan pembelajaran mesin anu sanés.

"Sababaraha kajadian adversarial ieu tiasa janten artefak, sareng urang kedah langkung terang naon aranjeunna supados terang kumaha dipercaya jaringan ieu," tulis Buckner.

Buckner nyarios yén gangguan éta tiasa disababkeun ku interaksi antara pola anu saleresna sareng naon anu badé diolah ku jaringan, hartosna éta sanés kasalahan anu lengkep.

Pola salaku Artefak

"Ngarti kana implikasi tina conto adversarial merlukeun Ngalanglang kamungkinan katilu: yén sahenteuna sababaraha pola ieu artefak," ceuk Buckner. "Janten, ayeuna aya duanana biaya dina ngan saukur miceun pola ieu sareng bahaya dina ngagunakeunana sacara naif."

Sanaos henteu sadayana waktos, kajahatan anu dihaja mangrupikeun résiko anu paling luhur ngeunaan kajadian-kajadian musuh ieu anu nyababkeun gangguan diajar mesin.

"Éta hartosna aktor jahat tiasa ngabobodo sistem anu ngandelkeun jaringan anu tiasa dipercaya," saur Buckner. "Éta ngagaduhan aplikasi kaamanan."

Ieu tiasa janten peretas anu ngalanggar sistem kaamanan dumasar kana téknologi pangenal raray, atanapi tanda lalu lintas anu salah labél pikeun ngalieurkeun kendaraan otonom.

Panaliti samemehna anu sanés nunjukkeun yén sababaraha conto adversarial sacara alami, lumangsung nalika sistem pembelajaran mesin salah interpretasi data ngaliwatan interaksi anu teu diantisipasi, anu béda ti kasalahan dina data. Conto anu alami ieu jarang, sareng hiji-hijina cara ayeuna pikeun mendakanana nyaéta ngalangkungan AI.

Sanajan kitu, Buckner nyebutkeun yén panalungtik kudu rethink cara nu aranjeunna alamat anomali.

Anomali ieu, atawa artefak, dipedar ku Buckner ngaliwatan analogi tina flare lénsa dina photograph a, nu teu disababkeun ku cacad dina lénsa kaméra tapi rada interaksi cahaya jeung kaméra.

Lamun hiji weruh kumaha carana napsirkeun flair lénsa, informasi penting kayaning lokasi panonpoé bisa sasari. Kusabab ieu, Buckner nyangka éta mungkin pikeun nimba inpormasi anu sami berharga tina kajadian ngarugikeun dina pembelajaran mesin anu disababkeun ku artefak.

Buckner ogé nyebatkeun yén sadaya ieu henteu otomatis hartosna diajar jero henteu sah.

"Sababaraha kajadian adversarial ieu tiasa janten artefak," saurna. "Urang kedah terang naon artefak ieu supados urang tiasa terang kumaha dipercaya jaringanna."

Alex McFarland mangrupikeun wartawan AI sareng panulis ngajalajah kamajuan panganyarna dina intelijen buatan. Anjeunna parantos kolaborasi sareng seueur ngamimitian AI sareng publikasi di sakuliah dunya.