csonk Az EU mesterséges intelligenciáról szóló törvénytervezetének hiányosságai – Unite.AI
Kapcsolatba velünk

Szabályozás

Az EU mesterséges intelligenciáról szóló törvénytervezetének hiányosságai

mm
korszerűsített on

Az Európai Unió mesterséges intelligenciatörvény-tervezetének új jogi bírálata számos kritikát fogalmaz meg a javasolt rendeletekkel kapcsolatban áprilisban jelent meg, amely arra a következtetésre jutott, hogy a dokumentum nagy része az 1980-as évek fogyasztóvédelmi szabályozásából származik, amelyet alig lehet alkalmazni; hogy valójában a deregulált mesterséges intelligencia-környezetet támogatja Európában, ahelyett, hogy az ágazatot koherens szabályozás alá vonná; és – számos egyéb kritika mellett –, hogy a javaslatok olyan jövőbeli szabályozási mesterséges intelligencia keretet vázolnak fel, amelynek „kevés értelme és hatása van”.

Jogosult Az EU mesterséges intelligenciáról szóló törvénytervezetének megfejtése, a előnyomtatás az UCL London és a nijmegeni Radboud Egyetem kutatóinak együttműködése.

A dokumentum a szabályozó mesterséges intelligencia keretének javasolt megvalósításával kapcsolatos egyre több negatív véleményt erősít (nem pedig a sokak által csodált szándékkal), beleértve az állítást is. áprilisában A rendelettervezet egyik saját hozzászólója szerint a javasolt iránymutatások „langyosak, rövidlátóak és szándékosan homályosak”, ami az Európai Bizottság dokumentumát a „hamis etika” támogatójaként jellemezte.

Manipulatív AI rendszerek

Az új dokumentum azt állítja, hogy a mesterséges intelligenciatörvényben a „manipulatív rendszerekre” javasolt korlátozásokat a „kár” homályos, sőt ellentmondásos meghatározása gátolja, megjegyezve, hogy „[a] cinikus úgy érezheti, hogy a Bizottság jobban érdekli a tilalmak retorikai értéke, mint a gyakorlati. hatás'.

A rendelettervezetek vázoljon fel két feltételezett tiltott gyakorlatot:

a) olyan mesterséges intelligencia-rendszer forgalomba hozatala, üzembe helyezése vagy használata, amely egy személy tudatán kívüli tudatalatti technikákat alkalmaz annak érdekében, hogy lényegesen torzítsa egy személy viselkedését olyan módon, amely az adott személyt vagy egy másik személyt fizikai sérülést okozza vagy okozhat. vagy pszichés sérülés;

b) olyan mesterséges intelligencia-rendszer forgalomba hozatala, üzembe helyezése vagy használata, amely a személyek egy meghatározott csoportjának életkorukból, testi vagy szellemi fogyatékosságukból fakadó sebezhetőségét kihasználja annak érdekében, hogy egy személy magatartását lényegesen torzítsa. az adott csoporthoz kapcsolódó olyan módon, amely az adott személynek vagy egy másik személynek fizikai vagy lelki sérülést okoz vagy okozhat;

A kutatók azzal érvelnek, hogy ezek a korlátozások nem arra vonatkoznak, hogy a mesterségesintelligencia-szolgáltató szolgáltatásai vagy szoftverei sikeresek-e saját céljaik elérésében, hanem csak akkor, ha a végfelhasználó „kárt” szenved a folyamat során. Hozzáteszik, hogy a tervezetben szereplő ártalmak meghatározása végzetesen az egyéni felhasználókra korlátozódik, nem pedig azokra a kollektív vagy társadalmi károkra, amelyek az elmúlt évek számos mesterségesintelligencia-alapú vitájából, például a Cambridge Analytica összeomlásából következtethetők.

A lap megjegyzi, hogy „a való életben a károk felhalmozódhatnak anélkül, hogy egyetlen esemény is megütné a súlyossági küszöböt, és így nehéz lenne bizonyítani”.

A káros mesterségesintelligencia-rendszerek engedélyezettek, de nem uniós fogyasztásra

Az AI-törvény azt javasolja, hogy a bűnüldöző szervek betiltsák a „valós idejű” biometrikus rendszereket a közterületeken. Bár a közvélemény szkepticizmusa a terrorizmus elleni küzdelem, a gyermekkereskedelem és az európai elfogatóparancs után tett javaslatok kivételei ellen irányult, a kutatók azt is megjegyzik, hogy semmi sem akadályozná meg a beszállítókat abban, hogy a beszállítókat elnyomó rezsimeknek adják el az ellentétes biometrikus rendszereket.

A lap megjegyzi, hogy ez már történelmi gyakorlat, amint az az Amnesty International 2020-as jelentéséből kiderül.

Kimondja továbbá, hogy a mesterséges intelligencia törvény „valós idejű” biometrikus rendszerre vonatkozó előírása önkényes, és kizárja az off-line elemző rendszereket, például a tiltakozó események videofelvételeinek későbbi feldolgozását.

Ezenkívül meg kell jegyezni, hogy a javaslatok nem kínálnak mechanizmust a biometrikus rendszerek korlátozására nem a bűnüldözéshez kapcsolódóan, amelyeket ehelyett lustán a GDPR hatálya alá halasztanak; és hogy maga a GDPR „jó minőségű, egyéni hozzájárulás követelményét írja elő minden egyes szkennelt személy számára, amelyet gyakorlatilag lehetetlen teljesíteni”.

A mesterséges intelligencia törvény ezen szakaszának megfogalmazása is kritikát kap a kutatók részéről. A tervezet előírja, hogy a biometrikus rendszerek kiépítéséhez előzetes engedélyezésre lesz szükség az illetékes hatóságok ilyen rendszerek „egyéni használatához”, de nem tisztázza, hogy ebben az összefüggésben mit jelent az „egyéni használat”. A lap megjegyzi, hogy lehetnek ellentmondásos jogcímek tematikus, és széles körű szervezetekhez, célokhoz és helyekhez kapcsolódnak.

Továbbá a rendelettervezetek nem írnak elő átláthatósági mechanizmust a kiadott engedélyek számára és típusára vonatkozóan, ami problémássá teszi a nyilvános ellenőrzést.

Kiszervezés a „harmonizált szabványokra”

A kutatás megállapítja, hogy a mesterséges intelligencia törvény legfontosabb entitásai valójában egyetlen alkalommal sem szerepelnek a rendelettervezetekben: a CEN (Európai Szabványügyi Bizottság) és a CENELEC (Európai Elektrotechnikai Szabványügyi Bizottság) – kettő a három európai szabványügyi szervezet közül (ESO). az Európai Bizottság megbízhat harmonizált szabványok kidolgozásával, amelyek sok esetben továbbra is az irányadó szabályozási keretek maradnának bizonyos mesterségesintelligencia-szolgáltatások és -telepítések esetében.

Ez gyakorlatilag azt jelenti, hogy a mesterségesintelligencia-gyártók dönthetnek úgy, hogy a ténylegesen versengő előírásokat követik, nem pedig a kiegészítő szabályozásokat, ahelyett, hogy teljesítenék az AI-törvényben meghatározott alapvető követelményeket. Ez lehetővé teszi a szolgáltatók számára, hogy lazábban értelmezzék a javasolt szabályozást, amikor azok 2024-5-ben hatályba lépnek.

A lap kutatói úgy vélik továbbá, hogy a szabványügyi testületek közötti évekig tartó ipari lobbizás valószínűleg jelentősen újradefiniálja ezeket az „alapvető szabványokat”, és azt javasolják, hogy az „ideális” szabályozásnak magasabb etikai szintről és a jogalkotási egyértelműségről kellene indulnia, már csak azért is, hogy ezt figyelembe vegyék. elkerülhetetlen lemorzsolódási folyamat.

Az érzelemfelismerő rendszerek tévedésének legitimálása

A mesterséges intelligencia törvény rendelkezést tartalmaz az érzelemfelismerő és kategorizáló rendszerek bevezetése ellen – olyan keretrendszerek, amelyek nem feltétlenül azonosítják az egyént, de vagy azt állítják, hogy megértik, mit éreznek, vagy képesek kategorizálni őket nem, etnikai hovatartozás és más egyéb szempontok szerint. gazdasági és társadalmi jelzők.

A kutatók azzal érvelnek, hogy ez a kitétel értelmetlen, mivel a GDPR már most is kötelezi az ilyen rendszerek szállítóit, hogy egyértelmű tájékoztatást adjanak a felhasználóknak az ilyen rendszerek használatáról, hogy a felhasználók leiratkozhassanak (amely azzal járhat, hogy nem használnak online szolgáltatást, vagy nem lépnek be). olyan terület, ahol ilyen rendszerek létezését bejelentették).

Ennél is fontosabb, hogy a lap azt állítja, hogy ez a záradék legitimálja a debunked technológia, és folytatja a jellemzést FACS-stílusú érzelemfelismerő rendszerek a frenológia szégyenletes történetének és a korai ipari kortól kezdve a társadalmi kategorizáció más, közel sámánisztikus megközelítéseinek tükrében.

„Azok, akik azt állítják, hogy érzékelik az érzelmeket, túlságosan leegyszerűsített, megkérdőjelezhető taxonómiákat használnak; helytelenül feltételezi a kultúrák és kontextusok közötti egyetemességet; és megkockáztatja, hogy „visszavisz minket a frenológiai múltba” a jellemvonások elemzésével az arc struktúráitól. A törvény érzelemfelismerésről és biometrikus kategorizálásról szóló rendelkezései nem tűnnek elegendőnek a kockázatok mérséklésére.

Túl szerény javaslat

Ezeken kívül a kutatók foglalkoznak az AI-törvény egyéb észlelt hiányosságaival a mélyhamisítások szabályozásával kapcsolatban, az AI-rendszerek szén-dioxid-kibocsátásának felügyeletének hiányával, a szabályozási felügyelet más keretekkel való megkettőzésével, valamint a büntetőeljárás alá vonható jogi személyek nem megfelelő meghatározásával.

Arra buzdítják a jogalkotókat és a civil aktivistákat, hogy tegyenek lépéseket a feltárt problémák orvoslása érdekében, és még azt is megjegyzik, hogy a rendelettervezetek kiterjedt dekonstrukciója helyhiány miatt sok más aggályos területet is ki kellett hagynia.

Mindazonáltal a lap üdvözli a törvény élvonalbeli kísérletét az AI-rendszerek horizontális szabályozásának bevezetésére, hivatkozva annak számos „ésszerű elemére”, mint például a kockázatértékelési szintek hierarchiájának létrehozására, a tilalmak bevezetésére vonatkozó kötelezettségvállalásra, valamint egy nyilvános adatbázis létrehozására. olyan rendszerekről, amelyekhez a szállítóknak hozzá kell járulniuk ahhoz, hogy európai legitimációt szerezzenek, bár figyelembe kell venni azokat a jogi nehézségeket, amelyeket ez a későbbi követelmény valószínűleg felvet.

 

Író a gépi tanulásról, a mesterséges intelligenciáról és a big data-ról.
Személyes oldal: Martinanderson.ai
Kapcsolat [e-mail védett]
Twitter: @manders_ai