кочан Пропуските на проектозакона на ЕС за изкуствения интелект - Unite.AI
Свържете се с нас

Регулиране

Пропуските на проектозакона на ЕС за изкуствения интелект

mm
Обновено on

Нова правна критика на проекта на Европейския съюз за „Акт за ИИ“ изравнява широк спектър от критики към предложените регламенти пуснат през април, стигайки до заключението, че голяма част от документа е „съшит заедно“ от едва приложимата потребителска регулация от 1980-те години на миналия век; че всъщност насърчава дерегулирана среда на ИИ в Европа, вместо да постави сектора под съгласувано регулиране; и – наред с куп други критики – че предложенията очертават бъдеща регулаторна рамка на ИИ, която има „малко смисъл и въздействие“.

озаглавен Демистифициране на проектозакона на ЕС за изкуствения интелект- предпечат е сътрудничество между изследователи от UCL London и Radboud University в Nijmegen.

Документът добавя към нарастващото количество негативни мнения относно предложеното внедряване (вместо силно възхищаваното намерение) на регулаторна рамка за ИИ, включително спора през април на един от авторите на проекторегламента, че предложените насоки са „хладки, късогледи и умишлено неясни“, което характеризира документа на Европейската комисия като поддръжник на „фалшива етика“.

Манипулативни AI системи

Новият документ твърди, че предложените от Закона за изкуствен интелект ограничения на „манипулативните системи“ са затруднени от неясно и дори противоречиво определение на „вреда“, като се коментира, че „един циник може да почувства, че Комисията се интересува повече от реторичната стойност на забраните, отколкото от практическата ефект'.

- проекти на наредби очертават две предполагаеми забранени практики:

а) пускане на пазара, пускане в експлоатация или използване на система с изкуствен интелект, която използва подсъзнателни техники отвъд съзнанието на дадено лице, за да изкриви съществено поведението на дадено лице по начин, който причинява или е вероятно да причини физически на това лице или друго лице или психологическо увреждане;

б) пускане на пазара, пускане в експлоатация или използване на система с изкуствен интелект, която използва някоя от уязвимостите на конкретна група лица поради тяхната възраст, физическо или умствено увреждане, за да изкриви съществено поведението на дадено лице отнасящи се до тази група по начин, който причинява или е вероятно да причини физическо или психологическо увреждане на това лице или друго лице;

Изследователите твърдят, че тези ограничения не се отнасят до това дали услугите или софтуерът на доставчика на ИИ са успешни в постигането на техните собствени цели, а само ако крайният потребител претърпи „вреда“ в процеса. Те добавят, че дефиницията на проекта за вреда е фатално ограничена до индивидуалните потребители, а не до вида колективна или обществена вреда, която може да бъде разумно изведена от редица базирани на AI противоречия от последните години, като провала на Cambridge Analytica.

Документът отбелязва, че „в реалния живот вредата може да се натрупа, без нито едно събитие да прекъсне прага на сериозност, което да затрудни доказването“.

Вредните AI системи са разрешени, но не и за потребление в ЕС

Законът за изкуствения интелект предлага прилагане на забрана за биометрични системи в „реално време“ на обществени места от правоприлагащите органи. Въпреки че известен обществен скептицизъм беше насочен към изключенията, които предложенията правят за борба с тероризма, трафика на деца и преследването на европейска заповед за арест, изследователите отбелязват също, че нищо не би попречило на доставчиците да продават противоречащи биометрични системи на потиснически режими.

Вестникът отбелязва, че това вече е историческа практика, както се разкрива в доклад от 2020 г. на Amnesty International.

Освен това се посочва, че спецификацията на Закона за изкуствен интелект за биометрична система в „реално време“ е произволна и изключва офлайн аналитични системи, като например по-късна обработка на видеозаписи от протестни събития.

Освен това се отбелязва, че предложенията не предлагат механизъм за ограничаване на биометричните системи, които са не свързани с правоприлагането, които вместо това са лениво отложени към GDPR; и че самият GDPR „поставя изискване за висококачествено, индивидуално съгласие за всяко сканирано лице, което на практика е невъзможно да бъде изпълнено“.

Формулировката на този раздел от Закона за изкуствен интелект също е обект на критика от страна на изследователите. Проектът предвижда, че ще се изисква предварително разрешение за разполагането на биометрични системи за „индивидуална употреба“ от компетентните органи на такива системи – но не изяснява какво означава „индивидуална употреба“ в този контекст. Документът отбелязва, че заповедите могат да бъдат противоречиви тематичени се отнасят до широки организации, цели и места.

Освен това, проектите на регламенти не предвиждат механизъм за прозрачност за броя и вида на издадените разрешения, което прави обществения контрол проблематичен.

Регламент за аутсорсинг към „Хармонизирани стандарти“

Изследването посочва, че най-важните субекти в Закона за ИИ всъщност не се споменават нито веднъж в проекторегламентите: CEN (Европейски комитет за стандартизация) и CENELEC (Европейски комитет за електротехническа стандартизация) – две от трите европейски организации за стандартизация (ESO), които Европейската комисия може да даде мандат за формулиране на хармонизирани стандарти, които в много случаи ще останат управляващите регулаторни рамки за определени видове услуги и внедрявания на ИИ.

Това на практика означава, че производителите на ИИ могат да изберат да следват стандартите на това, което в действителност се конкурират, а не допълващи се разпоредби, вместо да отговарят на основните изисквания, посочени в Закона за ИИ. Това позволява на доставчиците да тълкуват по-свободно предложените разпоредби, когато влязат в сила през 2024-5 г.

Изследователите на статията също така смятат, че годините на индустриално лобиране сред органите по стандартизация вероятно ще предефинират значително тези „основни стандарти“ и предполагат, че „идеалните“ разпоредби трябва да започнат на по-високо етично ниво и законодателна яснота, дори само за да отчетат това неизбежен процес на изтощение.

Легитимиране на заблудата на системите за разпознаване на емоции

Законът за изкуствения интелект включва разпоредба срещу внедряването на системи за разпознаване на емоции и категоризиране – рамки, които не е задължително да идентифицират дадено лице, но или претендират, че разбират какво чувства, или че могат да го категоризират по отношение на пол, етническа принадлежност и различни други икономически и социални сигнификатори.

Изследователите твърдят, че тази клауза е безсмислена, тъй като GDPR вече задължава доставчиците на такива системи да предоставят на потребителите ясна информация за използването на такива системи, така че потребителите да могат да се откажат (което може да включва неизползване на онлайн услуга или невлизане област, където е обявено, че съществуват такива системи).

По-важното е, че документът твърди, че тази клауза легитимира a развенчана технология и продължава да характеризира FACS-стил системи за разпознаване на емоции в светлината на срамната история на френологията и други почти шаманистки подходи към социалната категоризация от ранната индустриална епоха.

„Тези, които твърдят, че откриват емоции, използват твърде опростени, съмнителни таксономии; неправилно приемат универсалност в различните култури и контексти; и рискува да ни „[върне] назад във френологичното минало“ на анализиране на черти на характера от лицевите структури. Разпоредбите на закона относно разпознаването на емоциите и биометричната категоризация изглеждат недостатъчни за смекчаване на рисковете.

Твърде скромно предложение

Освен това, изследователите се занимават с други възприемани недостатъци в Закона за изкуствения интелект по отношение на регулирането на дълбоките фалшификати, липсата на надзор върху въглеродните емисии на системите с изкуствен интелект, дублирането на регулаторния надзор с други рамки и неадекватното определение на подлежащите на наказателно преследване юридически лица.

Те призовават законодателите и гражданските активисти да предприемат действия за разрешаване на идентифицираните проблеми и освен това отбелязват, че дори тяхното обширно деконструкциране на проекторегулациите е трябвало да пропусне много други области, които предизвикват безпокойство, поради липса на място.

Независимо от това, документът приветства авангардния опит на закона да въведе система за хоризонтално регулиране на системите за изкуствен интелект, цитирайки неговите много „разумни елементи“, като създаване на йерархия на нивата на оценка на риска, ангажимент за въвеждане на забрани и предлагане на публична база данни на системи, към които доставчиците ще трябва да допринесат, за да получат европейска легитимност, като се отбелязват правните затруднения, които това по-късно изискване вероятно ще доведе.