Connect with us

Cyberbeveiliging

Verklaarbare AI kan vertrouwelijke gegevens gemakkelijker prijsgeven

mm

Onderzoekers van de National University of Singapore hebben geconcludeerd dat hoe verklaarbaarder AI wordt, hoe gemakkelijker het zal worden om vitale privacyfuncties in machine learning-systemen te omzeilen. Ze ontdekten ook dat zelfs wanneer een model niet verklaarbaar is, het mogelijk is om uitleg van soortgelijke modellen te gebruiken om ‘gevoelige gegevens in het niet-verklaarbare model te decoderen’.

Het onderzoek, getiteld Exploiting Explanations for Model Inversion Attacks, benadrukt de risico’s van het gebruik van de ‘per ongeluk’ ondoorzichtigheid van de manier waarop neurale netwerken functioneren als een beveiligingsfunctie die is ontworpen – niet in de laatste plaats omdat een golf van nieuwe wereldwijde initiatieven, waaronder de concept-wetgeving van de EU voor AI, karakteriseren verklaarbare AI (XAI) als een vereiste voor de uiteindelijke normalisatie van machine learning in de samenleving.

In het onderzoek wordt een echte identiteit met succes gereconstrueerd uit anonieme gegevens met betrekking tot gezichtsuitdrukkingen, door het exploiteren van meerdere uitleg van het machine learning-systeem. Bron: https://arxiv.org/pdf/2108.10800.pdf

In het onderzoek wordt een echte identiteit met succes gereconstrueerd uit anonieme gegevens met betrekking tot gezichtsuitdrukkingen, door het exploiteren van meerdere uitleg van het machine learning-systeem. Bron: https://arxiv.org/pdf/2108.10800.pdf

Schrijver over machine learning, domeinspecialist in menselijke beeldsynthese. Voormalig hoofd onderzoekscontent bij Metaphysic.ai.