Stummel Die Mängel des EU-Gesetzesentwurfs zur künstlichen Intelligenz – Unite.AI
Vernetzen Sie sich mit uns

Rechtliches

Die Mängel des EU-Gesetzentwurfs zur künstlichen Intelligenz

mm
Aktualisiert on

Eine neue juristische Kritik am Entwurf des „KI-Gesetzes“ der Europäischen Union äußert vielfältige Kritikpunkte an den vorgeschlagenen Verordnungen im April veröffentlichtund kommt zu dem Schluss, dass ein Großteil des Dokuments aus kaum anwendbaren Verbrauchervorschriften der 1980er Jahre „zusammengefügt“ ist; dass es tatsächlich ein dereguliertes KI-Umfeld in Europa fördert, anstatt den Sektor einer kohärenten Regulierung zu unterwerfen; und – neben einer Reihe anderer Kritikpunkte – dass die Vorschläge einen künftigen regulatorischen KI-Rahmen entwerfen, der „wenig Sinn und Wirkung“ habe.

Berechtigt Entmystifizierung des EU-Gesetzesentwurfs zur künstlichen Intelligenz, der Vordruck ist eine Zusammenarbeit zwischen Forschern des UCL London und der Radboud University in Nijmegen.

Das Papier ergänzt eine wachsende Zahl negativer Meinungen über die vorgeschlagene Umsetzung (und nicht die viel bewunderte Absicht) eines regulatorischen KI-Rahmens, einschließlich der Behauptung im April Einer der Mitwirkenden des Verordnungsentwurfs erklärte, die vorgeschlagenen Leitlinien seien „lauwarm, kurzsichtig und absichtlich vage“, was das Dokument der Europäischen Kommission als Befürworter einer „falschen Ethik“ bezeichnete.

Manipulative KI-Systeme

Das neue Papier argumentiert, dass die im KI-Gesetz vorgeschlagenen Beschränkungen für „manipulative Systeme“ durch eine vage und sogar widersprüchliche Definition von „Schaden“ behindert werden, und kommentiert, dass „[ein] Zyniker das Gefühl haben könnte, dass die Kommission mehr am rhetorischen Wert als an der praktischen Bedeutung von Verboten interessiert ist.“ Wirkung'.

Das Verordnungsentwurf Umreißen Sie zwei mutmaßlich verbotene Praktiken:

(a) das Inverkehrbringen, die Inbetriebnahme oder die Nutzung eines KI-Systems, das unterschwellige Techniken außerhalb des Bewusstseins einer Person einsetzt, um das Verhalten einer Person in einer Weise wesentlich zu verzerren, die zu körperlichen Schäden bei dieser Person oder einer anderen Person führt oder führen kann oder psychischer Schaden;

(b) das Inverkehrbringen, die Inbetriebnahme oder die Nutzung eines KI-Systems, das die Schwachstellen einer bestimmten Personengruppe aufgrund ihres Alters, ihrer körperlichen oder geistigen Behinderung ausnutzt, um das Verhalten einer Person wesentlich zu verfälschen Zugehörigkeit zu dieser Gruppe in einer Weise, die dieser oder einer anderen Person physischen oder psychischen Schaden zufügt oder verursachen kann;

Die Forscher argumentieren, dass diese Einschränkungen nicht darauf abzielen, ob die Dienste oder Software eines KI-Anbieters bei der Förderung seiner eigenen Ziele erfolgreich sind oder nicht, sondern nur, ob der Endnutzer dabei „Schaden“ erleidet. Sie fügen hinzu, dass die Schadensdefinition des Entwurfs fatalerweise auf einzelne Nutzer beschränkt ist und nicht auf die Art von kollektivem oder gesellschaftlichem Schaden, der aus einer Reihe von KI-basierten Kontroversen der letzten Jahre, wie dem Debakel von Cambridge Analytica, vernünftigerweise abgeleitet werden kann.

In dem Papier heißt es: „Im wirklichen Leben kann sich Schaden anhäufen, ohne dass ein einziges Ereignis die Schwereschwelle überschreitet, was den Nachweis erschwert.“

Schädliche KI-Systeme erlaubt, aber nicht für den EU-Verbrauch

Das KI-Gesetz schlägt vor, ein Verbot von „Echtzeit“-biometrischen Systemen im öffentlichen Raum durch die Strafverfolgungsbehörden einzuführen. Obwohl eine gewisse öffentliche Skepsis auf die in den Vorschlägen vorgesehenen Ausnahmen zur Terrorismusbekämpfung, zum Kinderhandel und zur Durchsetzung eines europäischen Haftbefehls gerichtet ist, weisen die Forscher auch darauf hin, dass nichts die Anbieter davon abhalten würde, illegale biometrische Systeme an repressive Regime zu verkaufen.

Das Papier stellt fest, dass dies bereits eine historische Praxis ist, wie aus dem Bericht von Amnesty International aus dem Jahr 2020 hervorgeht.

Darin heißt es weiter, dass die Spezifikation des „Echtzeit“-Biometriesystems im KI-Gesetz willkürlich sei und Offline-Analysesysteme wie die spätere Verarbeitung von Videomaterial von Protestveranstaltungen ausschließe.

Darüber hinaus wird darauf hingewiesen, dass die Vorschläge keinen Mechanismus zur Einschränkung biometrischer Systeme bieten nicht im Zusammenhang mit der Strafverfolgung, die stattdessen träge der DSGVO unterstellt werden; und dass die DSGVO selbst „für jede gescannte Person eine Anforderung an eine qualitativ hochwertige, individuelle Einwilligung stellt, die praktisch nicht erfüllt werden kann“.

Auch der Wortlaut dieses Abschnitts des KI-Gesetzes stößt bei den Forschern auf Kritik. Der Entwurf sieht vor, dass für den Einsatz biometrischer Systeme eine Vorabgenehmigung für die „individuelle Nutzung“ solcher Systeme durch die zuständigen Behörden erforderlich sein wird – es wird jedoch nicht klargestellt, was „individuelle Nutzung“ in diesem Zusammenhang bedeutet. Das Papier stellt fest, dass Haftbefehle umstritten sein können thematischund beziehen sich auf umfassende Organisationen, Zwecke und Orte.

Darüber hinaus sehen die Verordnungsentwürfe keinen Transparenzmechanismus für die Anzahl und Art der erteilten Genehmigungen vor, was eine öffentliche Kontrolle erschwert.

Outsourcing-Verordnung zu „harmonisierten Standards“

Die Untersuchung besagt, dass die wichtigsten Einheiten des KI-Gesetzes in den Verordnungsentwürfen tatsächlich kein einziges Mal erwähnt werden: CEN (Europäisches Komitee für Normung) und CENELEC (Europäisches Komitee für elektrotechnische Normung) – zwei von drei europäischen Normungsorganisationen (ESOs), die Die Europäische Kommission kann die Formulierung harmonisierter Standards anordnen, die in vielen Fällen weiterhin die maßgeblichen Regulierungsrahmen für bestimmte Arten von KI-Diensten und -Einsätzen bleiben würden.

Dies bedeutet im Endeffekt, dass KI-Hersteller sich dafür entscheiden können, den Standards tatsächlich konkurrierender statt ergänzender Vorschriften zu folgen, anstatt die wesentlichen Anforderungen des KI-Gesetzes zu erfüllen. Dies ermöglicht es den Anbietern, die vorgeschlagenen Vorschriften bei ihrem Inkrafttreten im Jahr 2024–5 freier auszulegen.

Die Forscher des Papiers sind auch der Meinung, dass die dazwischen liegende jahrelange industrielle Lobbyarbeit bei Normungsgremien diese „wesentlichen Standards“ wahrscheinlich erheblich neu definieren wird, und schlagen vor, dass „ideale“ Vorschriften auf einem höheren ethischen Niveau und einer höheren Rechtsklarheit beginnen sollten, und sei es nur, um dies zu berücksichtigen unvermeidlicher Zermürbungsprozess.

Legitimierung des Irrtums von Emotionserkennungssystemen

Das KI-Gesetz enthält Bestimmungen gegen den Einsatz von Emotionserkennungs- und -kategorisierungssystemen – Rahmenwerke, die eine Person nicht unbedingt identifizieren, aber entweder behaupten, zu verstehen, was sie fühlt, oder in der Lage zu sein, sie nach Geschlecht, ethnischer Zugehörigkeit und verschiedenen anderen Kriterien zu kategorisieren wirtschaftliche und soziale Signifikanten.

Die Forscher argumentieren, dass diese Klausel sinnlos ist, da die DSGVO die Anbieter solcher Systeme bereits dazu verpflichtet, den Benutzern klare Informationen über die Nutzung solcher Systeme zur Verfügung zu stellen, sodass Benutzer sich abmelden können (was möglicherweise bedeutet, dass sie einen Online-Dienst nicht nutzen oder nicht darauf zugreifen). ein Bereich, in dem die Existenz solcher Systeme angekündigt wurde).

Noch wichtiger ist, dass in dem Papier behauptet wird, dass diese Klausel a legitimiert entlarvt Technologie, und fährt fort zu charakterisieren FACS-artige Emotionserkennungssysteme im Lichte der beschämenden Geschichte der Phrenologie und anderer nahezu schamanistischer Ansätze zur sozialen Kategorisierung aus dem frühen Industriezeitalter.

„Diejenigen, die behaupten, Emotionen zu erkennen, verwenden zu stark vereinfachte, fragwürdige Taxonomien; gehen fälschlicherweise von einer Universalität über Kulturen und Kontexte hinweg aus; und riskieren, „uns in die phrenologische Vergangenheit zurückzubringen“, wenn es darum geht, Charaktereigenschaften zu analysieren aus Gesichtsstrukturen. „Die Bestimmungen des Gesetzes zur Emotionserkennung und biometrischen Kategorisierung scheinen nicht auszureichen, um die Risiken zu mindern.“

Ein zu bescheidener Vorschlag

Darüber hinaus befassen sich die Forscher mit anderen wahrgenommenen Mängeln des KI-Gesetzes in Bezug auf die Regulierung von Deepfakes, einer mangelnden Aufsicht über die Kohlenstoffemissionen von KI-Systemen, einer Duplizierung der Regulierungsaufsicht mit anderen Rahmenwerken und einer unzureichenden Definition strafrechtlicher juristischer Personen.

Sie fordern Gesetzgeber und Zivilaktivisten auf, Maßnahmen zu ergreifen, um die festgestellten Probleme zu beheben, und stellen außerdem fest, dass selbst bei der umfassenden Dekonstruktion der Verordnungsentwürfe viele andere Problembereiche aufgrund von Platzmangel außer Acht gelassen werden mussten.

Nichtsdestotrotz lobt das Papier den Vorreiterversuch des Gesetzes, ein System der horizontalen Regulierung von KI-Systemen einzuführen, und nennt seine vielen „sinnvollen Elemente“, wie die Schaffung einer Hierarchie von Risikobewertungsebenen, die Verpflichtung zur Einführung von Verboten und den Vorschlag einer öffentlichen Datenbank von Systemen, zu denen Lieferanten beitragen müssten, um europäische Legitimität zu erlangen, weist jedoch auf die rechtlichen Probleme hin, die diese spätere Anforderung wahrscheinlich mit sich bringen wird.