Kyberturvallisuus
Selitettävä tekoäly saattaa luovuttaa luottamuksellisia tietoja helpommin

Singaporen kansallisen yliopiston tutkijat ovat tulleet siihen tulokseen, että mitä selitettävämmäksi tekoäly tulee, sitä helpommin voidaan ohittaa tärkeät tietosuojatoiminnot koneoppimisjärjestelmissä. He myös totesivat, että vaikka malli ei ole selitettävissä, on mahdollista käyttää samankaltaisten mallien selityksiä “koodata” herkkä data ei-selitettävissä mallissa.
Tutkimus tutkimus, joka on nimeltään Exploiting Explanations for Model Inversion Attacks, korostaa selitettävän tekoälyn käytön riskejä, joita voidaan käyttää “vahingossa” epäselvyyden tapaan, jolla neuroniverkot toimivat, kuin se olisi suunniteltu turvallisuuden ominaisuus – ei ainakaan siksi, että uusi aalto uusia kansainvälisiä aloitteita, mukaan lukien Euroopan unionin luonnos tekoälysäännöistä, ovat luonnehtivia selitettävää tekoälyä (XAI) edellytykseksi koneoppimisen lopullista hyväksymistä yhteiskunnassa.

Tutkimuksessa todellinen identiteetti rekonstruoitiin onnistuneesti oletetusti anonyymeistä tiedoista, jotka liittyvät kasvojen ilmeisiin, hyödyntämällä useita tekoälyjärjestelmän selityksiä. Lähde: https://arxiv.org/pdf/2108.10800.pdf












