Connect with us

Cybersicherheit

Erklärbares KI kann vertrauliche Daten leichter preisgeben

mm

Forscher der National University of Singapore sind zu dem Schluss gekommen, dass das erklärbare KI wird, desto leichter es wird, wichtige Datenschutzfunktionen in maschinellen Lernsystemen zu umgehen. Sie fanden auch heraus, dass es auch möglich ist, Erklärungen ähnlicher Modelle zu verwenden, um sensible Daten in einem nicht erklärbaren Modell zu “entschlüsseln”.

Die Forschung, betitelt Exploiting Explanations for Model Inversion Attacks, unterstreicht die Risiken der Verwendung der “zufälligen” Undurchsichtigkeit der Funktionsweise von neuronalen Netzen, als ob dies eine beabsichtigte Sicherheitsfunktion wäre – nicht zuletzt, weil eine Welle neuer globaler Initiativen, einschließlich des Entwurfs der EU-AI-Regulierungen, charakterisieren erklärbare KI (XAI) als eine Voraussetzung für die eventuelle Normalisierung des maschinellen Lernens in der Gesellschaft.

In der Forschung wird eine tatsächliche Identität erfolgreich aus angeblich anonymen Daten im Zusammenhang mit Gesichtsausdrücken rekonstruiert, indem multiple Erklärungen des maschinellen Lernsystems ausgenutzt werden. Quelle: https://arxiv.org/pdf/2108.10800.pdf

In der Forschung wird eine tatsächliche Identität erfolgreich aus angeblich anonymen Daten im Zusammenhang mit Gesichtsausdrücken rekonstruiert, indem multiple Erklärungen des maschinellen Lernsystems ausgenutzt werden. Quelle: https://arxiv.org/pdf/2108.10800.pdf

Autor über maschinelles Lernen, Domänen-Spezialist in der menschlichen Bildsynthese. Ehemaliger Leiter der Forschungsinhalte bei Metaphysic.ai.