Keamanan siber
Kecerdasan Buatan yang Dapat Dijelaskan Mungkin Menyerahkan Data Rahasia Lebih Mudah

Peneliti dari Universitas Nasional Singapura telah menyimpulkan bahwa semakin dapat dijelaskan kecerdasan buatan, semakin mudah untuk menghindari fitur privasi yang vital dalam sistem pembelajaran mesin. Mereka juga menemukan bahwa bahkan ketika model tidak dapat dijelaskan, masih memungkinkan untuk menggunakan penjelasan model serupa untuk ‘menguraikan’ data sensitif dalam model yang tidak dapat dijelaskan.
Penelitian penelitian, yang berjudul Exploiting Explanations for Model Inversion Attacks, menyoroti risiko menggunakan ‘kekaburan’ yang tidak disengaja dari cara jaringan saraf berfungsi seolah-olah ini adalah fitur keamanan yang dirancang – tidak hanya karena gelombang inisiatif global baru, termasuk draft peraturan AI Uni Eropa, sedang menggambarkan kecerdasan buatan yang dapat dijelaskan (XAI) sebagai prasyarat untuk normalisasi pembelajaran mesin dalam masyarakat.

Dalam penelitian, identitas sebenarnya berhasil direkonstruksi dari data yang seharusnya anonim yang terkait dengan ekspresi wajah, melalui eksploitasi dari beberapa penjelasan sistem pembelajaran mesin. Source: https://arxiv.org/pdf/2108.10800.pdf












