Свяжитесь с нами:

Недостатки проекта закона ЕС об искусственном интеллекте

"Регулирование"

Недостатки проекта закона ЕС об искусственном интеллекте

mm

Новая юридическая критика проекта «Закона об искусственном интеллекте» Европейского Союза содержит широкий спектр критических замечаний в адрес предлагаемых правил. выпущен в апреле, придя к выводу, что значительная часть документа «сшита» из малоприменимых норм потребительского регулирования 1980-х годов; что он фактически способствует дерегулированию сферы ИИ в Европе вместо того, чтобы привести сектор к согласованному регулированию; и — среди множества других критических замечаний — что предложения описывают будущую нормативно-правовую базу ИИ, которая имеет «мало смысла и влияния».

Озаглавленный Демистификация проекта закона ЕС об искусственном интеллекте, препринт является результатом сотрудничества исследователей из UCL London и Radboud University в Неймегене.

Документ дополняет растущее количество негативных мнений о предлагаемой реализации (а не о намерении, вызывающем восхищение) нормативной базы ИИ, включая утверждение в апреле одного из авторов проекта постановления, что предлагаемые руководящие принципы являются «вялыми, недальновидными и намеренно расплывчатыми», что характеризует документ Европейской комиссии как пропаганду «фальшивой этики».

Манипулятивные системы искусственного интеллекта

В новой статье утверждается, что предлагаемые в Законе об ИИ ограничения на «манипулятивные системы» ограничены расплывчатым и даже противоречивым определением «вреда», и отмечается, что «циник может посчитать, что Комиссия больше заинтересована в риторической ценности запретов, чем в их практическом эффекте».

Команда проект регламента обозначьте две предполагаемые запрещенные практики:

(a) размещение на рынке, ввод в эксплуатацию или использование системы ИИ, которая использует подсознательные методы за пределами сознания человека, чтобы существенно исказить поведение человека таким образом, который причиняет или может причинить этому лицу или другому лицу физическую или психологический вред;

(b) размещение на рынке, ввод в эксплуатацию или использование системы искусственного интеллекта, которая использует любую из уязвимостей определенной группы лиц в силу их возраста, физической или умственной неполноценности, с целью существенного искажения поведения человека относящиеся к этой группе таким образом, который причиняет или может причинить этому лицу или другому лицу физический или психологический вред;

Исследователи утверждают, что эти ограничения не влияют на то, насколько успешно поставщик услуг или программного обеспечения ИИ достигает своих целей, а касаются только того, причиняется ли при этом «вред» конечному пользователю. Они добавляют, что определение вреда в проекте неизбежно ограничивается отдельными пользователями, а не коллективным или общественным вредом, который можно обоснованно вывести из ряда споров последних лет, связанных с ИИ, таких как крах Cambridge Analytica.

В статье отмечается, что «в реальной жизни вред может накапливаться, даже если отдельное событие не достигает порога серьезности, что затрудняет его доказательство».

Вредоносные системы искусственного интеллекта разрешены, но не для потребления в ЕС

Закон об искусственном интеллекте (ИИ) предлагает ввести запрет на использование правоохранительными органами биометрических систем в режиме реального времени в общественных местах. Хотя определённый скептицизм общественности был вызван исключениями, предусмотренными в законопроекте для борьбы с терроризмом, торговли детьми и получения европейского ордера на арест, исследователи также отмечают, что ничто не помешает поставщикам продавать биометрические системы, противоречащие законодательству, репрессивным режимам.

Газета отмечает, что это уже историческая практика, о чем свидетельствует отчет Amnesty International за 2020 год.

В нем также говорится, что спецификация Закона об ИИ для биометрической системы «в режиме реального времени» является произвольной и исключает автономные аналитические системы, такие как последующая обработка видеозаписей с акций протеста.

Кроме того, отмечается, что предложения не предлагают механизма ограничения биометрических систем, которые не связанные с правоохранительными органами, которые вместо этого лениво перекладываются на GDPR; и что сам GDPR «устанавливает требование высококачественного индивидуального согласия для каждого сканируемого человека, которое фактически невозможно выполнить».

Формулировка этого раздела Закона об искусственном интеллекте также подвергается критике со стороны исследователей. В проекте предусматривается, что для развертывания биометрических систем для «индивидуального использования» таких систем компетентными органами потребуется предварительное разрешение, но не уточняется, что подразумевается под «индивидуальным использованием» в данном контексте. В документе отмечается, что спорные ордера могут быть… тематическая, и относятся к широким организациям, целям и местам.

Кроме того, проект нормативных актов не предусматривает механизма прозрачности в отношении количества и типа выдаваемых разрешений, что затрудняет общественный контроль.

Регулирование аутсорсинга в соответствии с «гармонизированными стандартами»

В исследовании говорится, что наиболее важные организации в Законе о ИИ на самом деле ни разу не упоминаются в проекте правил: CEN (Европейский комитет по стандартизации) и CENELEC (Европейский комитет по электротехнической стандартизации) — две из трех европейских организаций по стандартизации (ESO), которые Европейская комиссия может поручить сформулировать согласованные стандарты, которые во многих случаях останутся регулирующими нормативно-правовыми базами для определенных типов услуг и развертываний ИИ.

Фактически это означает, что производители искусственного интеллекта могут следовать стандартам того, что фактически конкурирует, а не взаимодополняющим правилам, вместо того, чтобы выполнять основные требования, изложенные в Законе об искусственном интеллекте. Это позволяет провайдерам более свободно интерпретировать предлагаемые правила, когда они вступят в силу в 2024–5 годах.

Исследователи статьи также полагают, что годы промышленного лоббирования среди органов по стандартизации, вероятно, приведут к существенному переосмыслению этих «основных стандартов», и предполагают, что «идеальные» правила должны изначально иметь более высокий этический уровень и законодательную ясность, хотя бы для того, чтобы учесть этот неизбежный процесс истощения.

Узаконивание ошибочности систем распознавания эмоций

В Законе об искусственном интеллекте содержится положение, запрещающее развертывание систем распознавания и категоризации эмоций — структур, которые могут не обязательно идентифицировать человека, но либо утверждают, что понимают, что они чувствуют, либо могут классифицировать их с точки зрения пола, этнической принадлежности и других факторов. экономические и социальные признаки.

Исследователи утверждают, что этот пункт бессмыслен, поскольку GDPR уже обязывает поставщиков таких систем предоставлять пользователям четкую информацию об использовании таких систем, чтобы пользователи могли отказаться (что может включать в себя неиспользование онлайн-сервиса или области, где такие системы объявлены о существовании).

Что еще более важно, в документе утверждается, что этот пункт узаконивает развенчан технологии и продолжает характеризовать FACSсистемы распознавания эмоций в свете постыдной истории френологии и других почти шаманских подходов к социальной категоризации ранней индустриальной эпохи.

«Те, кто заявляют, что обнаруживают эмоции, используют чрезмерно упрощенные, сомнительные таксономии; неправильно предполагают универсальность в разных культурах и контекстах; и рискнуть «[вернуть] нас во френологическое прошлое» анализа черт характера из лицевых структур«Положения Закона о распознавании эмоций и биометрической категоризации представляются недостаточными для снижения рисков».

Слишком скромное предложение

Помимо этого, исследователи обращают внимание на другие очевидные недостатки Закона об искусственном интеллекте, касающиеся регулирования дипфейков, отсутствия надзора за выбросами углекислого газа системами искусственного интеллекта, дублирования нормативного надзора с другими структурами и неадекватного определения юридических лиц, подлежащих уголовному преследованию.

Они призывают законодателей и гражданских активистов принять меры для решения выявленных проблем и далее отмечают, что даже их обширная деконструкция проекта правил была вынуждена опустить многие другие проблемные области из-за нехватки места.

Тем не менее, в документе приветствуется авангардная попытка Акта ввести систему горизонтального регулирования систем ИИ, упоминаются ее многочисленные «разумные элементы», такие как создание иерархии уровней оценки риска, наличие обязательства по введению запретов и предложение о создании общедоступной базы данных систем, в которую поставщики должны будут вносить свой вклад для получения европейской легитимности, хотя и отмечаются правовые затруднения, которые, вероятно, возникнут в связи с этим последующим требованием.

 

Автор статей о машинном обучении, специалист по синтезу человеческих изображений. Бывший руководитель исследовательского контента в Metaphysic.ai.
Личный сайт: Мартинандерсон.ай
Контактное лицо: [электронная почта защищена]
Твиттер: @manders_ai