Rechtliches
Die Mängel des EU-Gesetzentwurfs zur künstlichen Intelligenz

Eine neue juristische Kritik zum Entwurf des „KI-Gesetzes“ der Europäischen Union übt vielfältige Kritik an den vorgeschlagenen Regelungen im April veröffentlicht, und kam zu dem Schluss, dass das Dokument größtenteils aus kaum anwendbaren Verbraucherschutzbestimmungen der 1980er Jahre „zusammengeschustert“ sei; dass es in Wirklichkeit eine deregulierte KI-Umgebung in Europa fördere, anstatt den Sektor einer kohärenten Regulierung zu unterziehen; und – neben einer Reihe anderer Kritikpunkte – dass die Vorschläge einen zukünftigen regulatorischen KI-Rahmen skizzierten, der „wenig Sinn und Wirkung“ habe.
Berechtigt Entmystifizierung des EU-Gesetzesentwurfs zur künstlichen Intelligenz, hat das Vordruck ist eine Zusammenarbeit zwischen Forschern des UCL London und der Radboud University in Nijmegen.
Das Papier ergänzt eine wachsende Zahl negativer Meinungen über die vorgeschlagene Umsetzung (und nicht die viel bewunderte Absicht) eines regulatorischen KI-Rahmens, einschließlich der Behauptung im April Einer der Autoren des Verordnungsentwurfs selbst meinte, die vorgeschlagenen Leitlinien seien „lauwarm, kurzsichtig und absichtlich vage“, und charakterisierte das Dokument der Europäischen Kommission als Befürworter einer „falschen Ethik“.
Manipulative KI-Systeme
In dem neuen Papier wird behauptet, dass die im AI Act vorgeschlagenen Beschränkungen für „manipulative Systeme“ durch eine vage und sogar widersprüchliche Definition von „Schaden“ behindert würden. Außerdem wird angemerkt, dass „ein Zyniker den Eindruck gewinnen könnte, die Kommission sei mehr am rhetorischen Wert der Verbote als an deren praktischer Wirkung interessiert“.
Die Verordnungsentwurf Umreißen Sie zwei mutmaßlich verbotene Praktiken:
(a) das Inverkehrbringen, die Inbetriebnahme oder die Nutzung eines KI-Systems, das unterschwellige Techniken außerhalb des Bewusstseins einer Person einsetzt, um das Verhalten einer Person in einer Weise wesentlich zu verzerren, die zu körperlichen Schäden bei dieser Person oder einer anderen Person führt oder führen kann oder psychischer Schaden;
(b) das Inverkehrbringen, die Inbetriebnahme oder die Nutzung eines KI-Systems, das die Schwachstellen einer bestimmten Personengruppe aufgrund ihres Alters, ihrer körperlichen oder geistigen Behinderung ausnutzt, um das Verhalten einer Person wesentlich zu verfälschen Zugehörigkeit zu dieser Gruppe in einer Weise, die dieser oder einer anderen Person physischen oder psychischen Schaden zufügt oder verursachen kann;
Die Forscher argumentieren, dass diese Einschränkungen nicht darauf abzielen, ob die Dienste oder Software eines KI-Anbieters seine eigenen Ziele erfolgreich erreichen, sondern nur darauf, ob der Endnutzer dabei „Schaden“ erleidet. Sie fügen hinzu, dass die Schadensdefinition des Entwurfs fatalerweise auf einzelne Nutzer beschränkt sei und nicht auf die Art von kollektivem oder gesellschaftlichem Schaden, der sich aus einer Reihe von KI-basierten Kontroversen der letzten Jahre, wie etwa dem Debakel um Cambridge Analytica, vernünftigerweise ableiten lässt.
In dem Dokument wird festgestellt, dass sich „im wirklichen Leben Schäden anhäufen können, ohne dass ein einzelnes Ereignis die Schwelle der Schwere überschreitet, was den Nachweis erschwert“.
Schädliche KI-Systeme erlaubt, aber nicht für den EU-Verbrauch
Der KI-Act sieht ein Verbot biometrischer Echtzeitsysteme im öffentlichen Raum durch die Strafverfolgungsbehörden vor. Zwar gibt es in der Öffentlichkeit Skepsis gegenüber den Ausnahmen, die der Vorschlag für die Terrorismusbekämpfung, den Kinderhandel und die Erteilung eines europäischen Haftbefehls vorsieht. Die Forscher weisen jedoch auch darauf hin, dass die Anbieter nichts davon abhalten würde, widerrechtliche biometrische Systeme an repressive Regime zu verkaufen.
Das Papier stellt fest, dass dies bereits eine historische Praxis ist, wie aus dem Bericht von Amnesty International aus dem Jahr 2020 hervorgeht.
Weiter heißt es darin, dass die im AI Act enthaltene Spezifikation eines „Echtzeit“-Biometriesystems willkürlich sei und Offline-Analysesysteme, wie etwa die spätere Verarbeitung von Videoaufnahmen von Protestveranstaltungen, ausschließe.
Darüber hinaus wird darauf hingewiesen, dass die Vorschläge keinen Mechanismus zur Einschränkung biometrischer Systeme bieten, die kein Frontalunterricht. im Zusammenhang mit der Strafverfolgung, die stattdessen lässig auf die DSGVO verwiesen werden; und dass die DSGVO selbst „für jede gescannte Person eine Anforderung einer hochwertigen, individuellen Einwilligung stellt, die praktisch unmöglich zu erfüllen ist“.
Auch der Wortlaut dieses Abschnitts des KI-Gesetzes wird von den Forschern kritisiert. Der Entwurf sieht vor, dass für den Einsatz biometrischer Systeme eine Vorabgenehmigung für die „individuelle Nutzung“ solcher Systeme durch zuständige Behörden erforderlich sein wird – klärt aber nicht, was „individuelle Nutzung“ in diesem Zusammenhang bedeutet. Das Papier weist darauf hin, dass umstrittene Genehmigungen thematischund beziehen sich auf umfassende Organisationen, Zwecke und Orte.
Darüber hinaus sehen die Verordnungsentwürfe keinen Transparenzmechanismus für die Anzahl und Art der erteilten Genehmigungen vor, was eine öffentliche Kontrolle erschwert.
Outsourcing-Regulierung zu „harmonisierten Standards“
Die Untersuchung besagt, dass die wichtigsten Einheiten des KI-Gesetzes in den Verordnungsentwürfen tatsächlich kein einziges Mal erwähnt werden: CEN (Europäisches Komitee für Normung) und CENELEC (Europäisches Komitee für elektrotechnische Normung) – zwei von drei europäischen Normungsorganisationen (ESOs), die Die Europäische Kommission kann die Formulierung harmonisierter Standards anordnen, die in vielen Fällen weiterhin die maßgeblichen Regulierungsrahmen für bestimmte Arten von KI-Diensten und -Einsätzen bleiben würden.
Dies bedeutet im Endeffekt, dass KI-Hersteller sich dafür entscheiden können, den Standards tatsächlich konkurrierender statt ergänzender Vorschriften zu folgen, anstatt die wesentlichen Anforderungen des KI-Gesetzes zu erfüllen. Dies ermöglicht es den Anbietern, die vorgeschlagenen Vorschriften bei ihrem Inkrafttreten im Jahr 2024–5 freier auszulegen.
Die Forscher der Studie sind außerdem der Meinung, dass die zwischenzeitliche Lobbyarbeit der Industrie bei den Normungsgremien diese „wesentlichen Standards“ wahrscheinlich erheblich neu definieren wird. Sie schlagen vor, dass „ideale“ Regelungen auf einem höheren ethischen Niveau und mit einer höheren rechtlichen Klarheit beginnen sollten, schon allein um diesem unvermeidlichen Abnutzungsprozess Rechnung zu tragen.
Legitimierung des Irrtums von Emotionserkennungssystemen
Das KI-Gesetz enthält Bestimmungen gegen den Einsatz von Emotionserkennungs- und -kategorisierungssystemen – Rahmenwerke, die eine Person nicht unbedingt identifizieren, aber entweder behaupten, zu verstehen, was sie fühlt, oder in der Lage zu sein, sie nach Geschlecht, ethnischer Zugehörigkeit und verschiedenen anderen Kriterien zu kategorisieren wirtschaftliche und soziale Signifikanten.
Die Forscher argumentieren, dass diese Klausel sinnlos ist, da die DSGVO die Anbieter solcher Systeme bereits dazu verpflichtet, den Benutzern klare Informationen über die Nutzung solcher Systeme zur Verfügung zu stellen, sodass Benutzer sich abmelden können (was möglicherweise bedeutet, dass sie einen Online-Dienst nicht nutzen oder nicht darauf zugreifen). ein Bereich, in dem die Existenz solcher Systeme angekündigt wurde).
Noch wichtiger ist, dass in dem Papier behauptet wird, dass diese Klausel a legitimiert entlarvt Technologie, und fährt fort zu charakterisieren FACS-artige Emotionserkennungssysteme im Lichte der beschämenden Geschichte der Phrenologie und anderer nahezu schamanistischer Ansätze zur sozialen Kategorisierung aus dem frühen Industriezeitalter.
„Diejenigen, die behaupten, Emotionen zu erkennen, verwenden zu stark vereinfachte, fragwürdige Taxonomien; gehen fälschlicherweise von einer Universalität über Kulturen und Kontexte hinweg aus; und riskieren, „uns in die phrenologische Vergangenheit zurückzubringen“, wenn es darum geht, Charaktereigenschaften zu analysieren aus Gesichtsstrukturen„Die Bestimmungen des Gesetzes zur Emotionserkennung und biometrischen Kategorisierung scheinen nicht auszureichen, um die Risiken zu mindern.“
Ein zu bescheidener Vorschlag
Darüber hinaus befassen sich die Forscher mit anderen wahrgenommenen Mängeln des KI-Gesetzes in Bezug auf die Regulierung von Deepfakes, einer mangelnden Aufsicht über die Kohlenstoffemissionen von KI-Systemen, einer Duplizierung der Regulierungsaufsicht mit anderen Rahmenwerken und einer unzureichenden Definition strafrechtlicher juristischer Personen.
Sie fordern Gesetzgeber und Zivilaktivisten auf, Maßnahmen zu ergreifen, um die festgestellten Probleme zu beheben, und stellen außerdem fest, dass selbst bei der umfassenden Dekonstruktion der Verordnungsentwürfe viele andere Problembereiche aufgrund von Platzmangel außer Acht gelassen werden mussten.
Dennoch begrüßt das Papier den bahnbrechenden Versuch des Gesetzes, ein horizontales Regulierungssystem für KI-Systeme einzuführen. Es verweist auf die vielen „sinnvollen Elemente“, wie etwa die Schaffung einer Hierarchie von Risikobewertungsebenen, die Verpflichtung zur Einführung von Verboten und den Vorschlag einer öffentlichen Datenbank der Systeme, zu der die Anbieter beitragen müssten, um europäische Legitimität zu erlangen. Allerdings wird auch auf die rechtlichen Zwickmühlen hingewiesen, die diese letztgenannte Anforderung wahrscheinlich mit sich bringen wird.












