Stumm D'Feeler vum Entworf EU Kënschtlech Intelligenz Act - Unite.AI
Connect mat eis

Regulatioun

D'Feeler vum Entworf EU Kënschtlech Intelligenz Gesetz

mm
aktualiséiert on

Eng nei juristesch Kritik vun der Europäescher Unioun d'Entworf "AI Act" Niveauen eng breet Palette vu Kritik un déi proposéiert Reglementer Abrëll verëffentlecht, ofschléissend datt vill vum Dokument aus kaum applicabel 1980er Konsumentregelung "zesummegehäit" ass; datt et tatsächlech en dereguléierten AI-Ëmfeld an Europa fördert, anstatt de Secteur ënner kohärent Regulatioun ze bréngen; an - ënner enger ganzer Rei vun anere Kritiken - datt d'Propositioune en zukünftege reglementaresche AI ​​Kader plangen deen "kleng Sënn an Impakt" huet.

Entlooss goufen Demystifikatioun vum Entworf EU Kënschtlech Intelligenz Gesetz, déi virdru gedréckt ass eng Zesummenaarbecht tëscht Fuerscher vun der UCL London an der Radboud Universitéit zu Nijmegen.

De Pabeier füügt zu engem wuessende Kierper vun negativer Meenung iwwer déi proposéiert Ëmsetzung (anstatt déi vill bewonnert Intent) vun engem reglementaresche AI ​​Kader, inklusiv der Sträit am Abrëll vun engem vun den eegene Contributeure vum Entworf vum Reglement, datt déi proposéiert Richtlinnen "luarm, kuerzsiichteg a bewosst vague" sinn, wat d'Dokument vun der Europäescher Kommissioun als Proponent vun der "falsch Ethik" charakteriséiert.

Manipulativ AI Systemer

Den neie Pabeier behaapt datt d'AI Gesetz proposéiert Restriktiounen op 'manipulativ Systemer' vun enger vague a souguer widderspréchlecher Definitioun vu 'Schued' gestoppt ass, a kommentéiert datt '[e] Zyniker kéint mengen datt d'Kommissioun méi un de rhetoresche Wäert vum Verbuet interesséiert ass wéi praktesch. Effekt'.

d' entworf Reglementer skizzéiert zwee putativ verbueden Praktiken:

(a) d'Plazen op de Maart, d'Benotzung oder d'Benotzung vun engem AI System deen subliminal Techniken iwwer d'Bewosstsinn vun enger Persoun ofsetzt fir d'Verhalen vun enger Persoun materiell ze verzerren op eng Manéier déi dës Persoun oder eng aner Persoun kierperlech verursaacht oder méiglecherweis verursaacht oder psychologesche Schued;

(b) d'Plazen op de Maart, d'Benotzung oder d'Benotzung vun engem AI System deen eng vun de Schwachstelle vun enger spezifescher Grupp vu Persounen ausnotzt wéinst hirem Alter, kierperlecher oder geeschteger Behënnerung, fir d'Behuele vun enger Persoun materiell ze verzerren betreffend dës Grupp op eng Manéier déi dës Persoun oder eng aner Persoun physesch oder psychologesch Schued verursaacht oder méiglecherweis verursaacht;

D'Fuerscher plädéieren datt dës Restriktiounen net adresséieren ob d'Servicer oder d'Software vun engem AI-Provider erfollegräich ass fir hir eegen Ziler weiderzebréngen, awer nëmmen wann den Endbenotzer am Prozess "Schued" leid. Si addéieren datt d'Definitioun vum Entworf vu Schued fatal limitéiert ass op eenzel Benotzer, anstatt d'Aart vu kollektive oder gesellschaftleche Schued, dee vernünfteg aus enger Zuel vun AI-baséierte Kontrovers vun de leschte Joeren ofgeleet ka ginn, sou wéi de Cambridge Analytica Debakel.

De Pabeier beobachtet datt "Am richtege Liewen, Schued ka accumuléieren ouni datt een eenzegen Event eng Schwelle vun der Eescht ausléist, sou datt et schwéier ass ze beweisen".

Schiedlech AI Systemer erlaabt, awer net fir EU Konsum

D'AI Act proposéiert e Verbuet op "Echtzäit" biometresche Systemer an ëffentleche Raum duerch d'Haftpflicht ëmzesetzen. Och wann e puer ëffentlech Skepsis op d'Ausnahmen gezielt ass, déi d'Propositioune fir Anti-Terrorismus, Kannerhandel an d'Verfollegung vun engem europäesche Verhaftungsbefehl maachen, bemierken d'Fuerscher och datt näischt d'Liwweranten verhënnert, géint biometresch Systemer un oppressiv Regimer ze verkafen.

De Pabeier bemierkt datt dëst scho historesch Praxis ass, wéi am 2020 Bericht vun Amnesty international opgedeckt gouf.

Et seet weider datt d'AI Act d'Spezifikatioun vum "Echtzäit" biometresche System arbiträr ass, an ausgeschloss offline analytesch Systemer, sou wéi spéider Veraarbechtung vu Videomaterial vu Protestevenementer.

Zousätzlech gëtt bemierkt datt d'Propositioune kee Mechanismus ubidden fir biometresch Systemer ze beschränken déi sinn net Zesummenhang mat Gesetzesvollzéier, déi amplaz faul op de GDPR ofgesat ginn; an datt de GDPR selwer "eng Fuerderung vu qualitativ héichwäerteg, individueller Zoustëmmung fir all gescannte Persoun stellt, déi effektiv onméiglech ass ze erfëllen".

D'Formuléierung vun dëser Sektioun vum AI Gesetz kënnt och fir Kritik vun de Fuerscher. Den Entworf gesäit vir, datt eng Pre-Autorisatioun fir den Asaz vu biometresche Systemer fir den "individuelle Gebrauch" vun esou Systemer vun zoustännegen Autoritéiten néideg ass - awer klärt net wat "individuell Notzung" an dësem Kontext bedeit. De Pabeier bemierkt datt kontrovers Warrants kënne sinn thematesch, a bezéie sech op breet Organisatiounen, Zwecker a Plazen.

Weider, den Entworf Reglementer virschreift keen Transparenzmechanismus fir d'Zuel an d'Aart vun den erausginn Autorisatiounen, wat d'ëffentlech Kontroll problematesch mécht.

Outsourcing Reguléierung op 'Harmoniséierter Normen'

D'Fuerschung seet datt déi wichtegst Entitéiten am AI-Gesetz tatsächlech net emol am Reglementprojet ernimmt ginn: CEN (European Committee for Standardization) an CENELEC (European Committee for Electrotechnical Standardisation) - zwee vun dräi europäesche Standardiséierungsorganisatiounen (ESOs) déi d'Europäesch Kommissioun kann Mandat fir harmoniséiert Normen ze formuléieren, déi a ville Fäll déi regéierend reglementaresch Kadere fir verschidden Zorte vun AI-Servicer an Deploymente bleiwen.

Dëst bedeit effektiv datt AI Produzente kënnen entscheeden d'Standarden ze verfollegen vun deem wat effektiv konkurréiere anstatt komplementär Reglementer, anstatt déi wesentlech Ufuerderungen ze erfëllen, déi am AI Act beschriwwe sinn. Dëst erlaabt Ubidder méi loose déi proposéiert Reglementer interpretéieren wann se a Kraaft trieden an 2024-5.

D'Fuerscher vum Pabeier mengen och datt intervenéierend Joer vun industrieller Lobbying tëscht Standardorganer méiglecherweis dës 'wesentlech Standarden' bedeitend nei definéieren, a proposéiere datt 'ideal' Reglementer op engem méi héijen etheschen Niveau a legislativer Kloerheet sollten ufänken, wann nëmmen fir dëst ze berechnen. inévitabele Prozess vun Ausschnëtter.

Legitimiséieren d'Fallacy vun Emotiounserkennungssystemer

D'AI Act weist Bestëmmung géint d'Deployment vun Emotiounserkennung a Kategoriséierungssystemer - Kaderen déi net onbedéngt en Individuum identifizéieren, awer entweder behaapten ze verstoen wat se fillen oder se kënnen ze kategoriséieren a punkto Geschlecht, Ethnie, a verschidde aner wirtschaftlech a sozial Bedeitung.

D'Fuerscher argumentéieren datt dës Klausel sënnlos ass, well den GDPR d'Versuerger vun esou Systemer scho verflicht, d'Benotzer kloer Informatioun iwwer d'Benotzung vun esou Systemer ze ginn, sou datt d'Benotzer sech kënnen austrieden (wat kann involvéieren net en Online Service ze benotzen oder net anzeginn e Beräich wou esou Systemer ugekënnegt ginn ze existéieren).

Méi wichteg, de Pabeier behaapt datt dës Klausel legitiméiert a debunked Technologie, a geet weider ze charakteriséieren FACS-Stil Emotiounen Unerkennung Systemer am Liicht vun der schued Geschicht vun phrenology an aner bal shamanistic Approche zu sozialer Kategoriséierung vun der fréi industriell Alter.

'Déi behaapten Emotiounen z'entdecken benotzen iwwervereinfacht, zweifelhaft Taxonomien; falsch Universalitéit iwwer Kulturen a Kontexter unhuelen; a riskéieren eis "zréck an d'phrenologesch Vergaangenheet ze huelen" fir Charaktereigenschaften ze analyséieren aus Gesiichtsstrukturen. D'Bestëmmunge vum Gesetz iwwer Emotiounserkennung a biometresch Kategoriséierung schéngen net genuch fir d'Risiken ze reduzéieren.'

Eng ze bescheiden Propositioun

Nieft dësen adresséieren d'Fuerscher aner erkannt Mängel am AI Gesetz a Bezuch op Reguléierung vun Deepfakes, e Manktem u Iwwerwaachung fir Kuelestoffemissioune vun AI Systemer, Duplikatioun vun der reglementarescher Iwwerwaachung mat anere Kaderen, an inadequater Definitioun vu prosekutiv legal Entitéiten.

Si fuerderen d'Gesetzgeber an d'Zivilaktivisten op Handlung ze huelen fir déi identifizéiert Probleemer z'erhéijen, a bemierken weider wéi och hir extensiv Dekonstruktioun vun den Entworf Reglementer huet vill aner Suerge Beräicher missen ausgoen, wéinst Plazmangel.

Trotzdem applaudéiert de Pabeier dem Gesetz seng Avantgarde Versuch e System vun der horizontaler Reguléierung vun AI Systemer anzeféieren, zitéiert seng vill "sënnvoll Elementer", sou wéi eng Hierarchie vu Risikobewäertungsniveauen ze kreéieren, d'Engagement ze hunn Verbueter aféieren an eng ëffentlech Datebank ze proposéieren. vu Systemer, zu deenen d'Verkeefer musse bäidroe fir europäesch Legitimitéit ze kréien, awer bemierken déi gesetzlech Quandaries, déi dës spéider Fuerderung méiglecherweis wäert bréngen.

 

Schrëftsteller iwwer Maschinnléieren, kënschtlech Intelligenz a Big Data.
Perséinlech Säit: martinanderson.ai
Contact: [Email geschützt]
Twitter: @manders_ai