Ethik
Forscher glauben, dass KI zum Schutz der Privatsphäre der Menschen eingesetzt werden kann

Zwei Professoren der Informationswissenschaft haben kürzlich veröffentlicht ein Stück in The Conversation, mit der Begründung, dass KI dazu beitragen könnte, die Privatsphäre der Menschen zu schützen und einige der durch sie verursachten Probleme zu beheben.
Zhiyuan Chen und Aryya Gangopadhyay argumentieren, dass Algorithmen der künstlichen Intelligenz zum Schutz der Privatsphäre der Menschen eingesetzt werden könnten und so einigen der vielen Datenschutzbedenken entgegengewirkt werden könnten, die andere Anwendungen von KI hervorgerufen haben. Chen und Gangopadhyay räumen ein, dass viele der KI-gesteuerten Produkte, die wir aus Bequemlichkeitsgründen verwenden, ohne den Zugriff auf große Datenmengen nicht funktionieren würden, was auf den ersten Blick im Widerspruch zu den Versuchen steht, die Privatsphäre zu schützen. Darüber hinaus werden mit der Ausbreitung der KI in immer mehr Branchen und Anwendungen immer mehr Daten gesammelt und in Datenbanken gespeichert, was Verstöße gegen diese Datenbanken verlockend macht. Chen und Gangopadhyay glauben jedoch, dass KI bei richtiger Anwendung dazu beitragen kann, diese Probleme zu mildern.
Chen und Gangopadhyay erklären in ihrem Beitrag, dass die mit KI verbundenen Datenschutzrisiken aus mindestens zwei verschiedenen Quellen stammen. Die erste Quelle sind die großen Datensätze, die zum Trainieren neuronaler Netzwerkmodelle gesammelt werden, während die zweite Bedrohung für die Privatsphäre die Modelle selbst sind. Aus diesen Modellen können möglicherweise Daten „durchsickern“, wobei das Verhalten der Modelle Details über die Daten preisgibt, die zu ihrem Training verwendet wurden.
Tiefe neuronale Netze bestehen aus mehreren Schichten von Neuronen, wobei jede Schicht mit den sie umgebenden Schichten verbunden ist. Die einzelnen Neuronen sowie die Verbindungen zwischen Neuronen kodieren für unterschiedliche Teile der Trainingsdaten. Das Modell erweist sich möglicherweise als zu gut, wenn es darum geht, sich Muster der Trainingsdaten zu merken, selbst wenn das Modell nicht überangepasst ist. Im Netzwerk sind Spuren der Trainingsdaten vorhanden, und böswillige Akteure könnten in der Lage sein, Aspekte der Trainingsdaten zu ermitteln, wie etwa die Cornell University während einer ihrer Studien gefunden. Cornell-Forscher fanden heraus, dass Gesichtserkennungsalgorithmen von Angreifern ausgenutzt werden könnten, um herauszufinden, welche Bilder und damit welche Personen zum Trainieren des Gesichtserkennungsmodells verwendet wurden. Die Cornell-Forscher haben herausgefunden, dass selbst wenn ein Angreifer keinen Zugriff auf das ursprüngliche Modell hat, das zum Trainieren der Anwendung verwendet wurde, der Angreifer möglicherweise dennoch in der Lage ist, das Netzwerk zu untersuchen und festzustellen, ob eine bestimmte Person in den Trainingsdaten enthalten war, indem er einfach Modelle verwendet war, dass auf sehr ähnlichen Daten trainiert wurde.
Einige KI-Modelle werden derzeit zum Schutz vor Datenschutzverletzungen eingesetzt und versuchen, die Privatsphäre der Menschen zu gewährleisten. KI-Modelle werden häufig zur Erkennung von Hacking-Versuchen eingesetzt, indem sie die Verhaltensmuster erkennen, mit denen Hacker in Sicherheitsmethoden eindringen. Hacker ändern jedoch häufig ihr Verhalten, um die mustererkennende KI auszutricksen.
Neue Methoden der KI-Schulung und -Entwicklung zielen darauf ab, KI-Modelle und -Anwendungen weniger anfällig für Hacking-Methoden und Sicherheitsumgehungstaktiken zu machen. Beim kontradiktorischen Lernen geht es darum, KI-Modelle anhand von Simulationen böswilliger oder schädlicher Eingaben zu trainieren und so das Modell robuster gegen Ausbeutung zu machen, daher das „adversarial“ im Namen. Laut Chen und Gangopadhyay, ihrer Forschung hat herausgefunden Methoden zur Bekämpfung von Malware, die darauf abzielt, private Daten von Personen zu stehlen. Die beiden Forscher erklärten, dass eine der ihrer Meinung nach wirksamsten Methoden zur Abwehr von Malware die Einführung von Unsicherheit in das Modell sei. Das Ziel besteht darin, es böswilligen Akteuren zu erschweren, vorherzusagen, wie das Modell auf eine bestimmte Eingabe reagieren wird.
Weitere Methoden zur Nutzung von KI zum Schutz der Privatsphäre umfassen die Minimierung der Datenexposition bei der Erstellung und dem Training des Modells sowie die Untersuchung, um die Schwachstellen des Netzwerks zu ermitteln. Wenn es um die Wahrung des Datenschutzes geht, kann föderiertes Lernen dazu beitragen, die Vertraulichkeit sensibler Daten zu schützen, da es das Trainieren eines Modells ermöglicht, ohne dass die Trainingsdaten jemals die lokalen Geräte verlassen, die die Daten enthalten, wodurch die Daten isoliert werden und vieles mehr Modellparameter vor Spionage schützen.
Letztendlich argumentieren Chen und Gangopadhyay, dass die Verbreitung von KI zwar neue Bedrohungen für die Privatsphäre der Menschen geschaffen habe, KI aber auch zum Schutz der Privatsphäre beitragen könne, wenn sie mit Sorgfalt und Rücksichtnahme entwickelt werde.












