Connect with us

Cybersikkerhet

Forklarbar AI kan avsløre konfidensielle data lettere

mm

Forskere fra National University of Singapore har konkludert med at jo mer forklarbar AI blir, jo lettere blir det å omgå vitale personvernsfunksjoner i maskinlæringsystemer. De fant også ut at selv når en modell ikke er forklarbar, er det mulig å bruke forklaringer fra lignende modeller til å ‘dekodere’ sensitive data i den ikke-forklarbare modellen.

Forskningen, med tittelen Exploiting Explanations for Model Inversion Attacks, fremhever risikoen ved å bruke den ’tilfeldige’ uklarheten i hvordan neurale nettverk fungerer som om det var en by-design-sikkerhetsfunksjon – ikke minst fordi en bølge av nye globale initiativer, inkludert Den europeiske unions utkast til AI-regler, karakteriserer forklarbar AI (XAI) som en forutsetning for den eventuelle normaliseringen av maskinlæring i samfunnet.

I forskningen ble en faktisk identitet suksessfullt rekonstruert fra angivelig anonyme data relatert til ansiktsuttrykk, gjennom utnyttelse av flere forklaringer av maskinlæringsystemet. Kilde: https://arxiv.org/pdf/2108.10800.pdf

I forskningen ble en faktisk identitet suksessfullt rekonstruert fra angivelig anonyme data relatert til ansiktsuttrykk, gjennom utnyttelse av flere forklaringer av maskinlæringsystemet. Kilde: https://arxiv.org/pdf/2108.10800.pdf

Forfatter på maskinlæring, domeneekspert på menneskesynthese. Tidligere leder for forskningsinnhold på Metaphysic.ai.