заглушки ЄС запустить перші правила ШІ - Unite.AI
Зв'язатися з нами

Регулювання

ЄС запустить перші правила ШІ

mm
оновлений on
Правила ШІ ЄС

21 квітня Європейський Союз оголосить про свою першу нормативну базу, що регулює використання штучного інтелекту. Нові правила повністю заборонять системи машинного навчання «високого ризику» та запровадять мінімальні стандарти для інших технологій машинного навчання, накладаючи штрафи в розмірі 20 мільйонів євро, або 4% від обороту компанії, за порушення.

Проект звіту про новий закон, отриманий Politico, прагнутиме сприяти інноваціям і розвитку систем штучного інтелекту на загальну користь економіки та суспільства ЄС у таких сферах, як виробництво, підвищення енергоефективності та моделювання зміни клімату; але він забороняє використання машинного навчання в системах оцінки кредитів, автоматизовану оцінку вироків та оцінку придатності для отримання пільг соціального забезпечення та заяв про надання притулку чи візи, серед інших заборон, які будуть розкриті пізніше.

Про це прямо йдеться в проекті Китайський стиль Системи соціального підрахунку окремих осіб і компаній суперечать цінностям Європейського Союзу та будуть заборонені згідно з положенням разом із технологіями «масового стеження», що працюють на основі ШІ.

Регуляторний нагляд

Після його призначення Групи експертів високого рівня зі штучного інтелекту в березні 2021 року ЄС також має намір заснувати нову Європейську раду зі штучного інтелекту, у якій будуть представлені кожна держава-член, а також представник Європейської комісії та орган ЄС із захисту даних.

Мабуть, найбільш широким і потенційно суперечливим указом у проекті є те, що він забороняє системи, які завдають шкоди населенню ЄС шляхом «маніпулювання їхньою поведінкою, думками чи рішеннями», що, можливо, включатиме багато технологій, які забезпечують аналіз комерційного та політичного маркетингу.

Правила робитимуть винятки для боротьби з серйозними злочинами, дозволяючи встановлене розгортання систем розпізнавання обличчя в межах обсягу та тривалості використання.

Як і з широкий розмах GDPR, здається, що ці нові правила можуть бути достатньо загальними, щоб викликати «охолоджуючий ефект» у сферах, де не надаються суворі вказівки щодо використання штучного інтелекту, при цьому корпорації ризикують бути оголеними, якщо їхнє використання машинного навчання потрапляє в потенційну сіру зону. в межах регламенту.

Упередженість згідно з новими правилами штучного інтелекту ЄС

Однак, безумовно, найбільша проблема та можлива юридична трясовина постає у формі положення проекту регламенту про те, що набори даних не «включають у себе будь-які навмисні чи ненавмисні упередження», які можуть сприяти дискримінації.

Зміщення даних є одним із найскладніших аспектів у розробці систем машинного навчання – важко довести, важко розглянути та глибоко пов’язаний із центральною культурою органів збору даних. Проблема дедалі частіше ставить приватні та державні дослідницькі організації в перехресний плин між необхідністю точного представлення окремих груп (це практично основна мета обчислювальної математики та емпіричного статистичного аналізу) та потенціалом пропагувати расове профілювання та культурну демонізацію, серед інших міркувань. .

Тому ймовірно, що ринки за межами ЄС сподіватимуться, що новий регламент забезпечить принаймні деякі конкретні напрямки вказівок і низку застосовних визначень у цьому відношенні.

Зовнішній опір регулюванню штучного інтелекту ЄС

Нове регулювання, ймовірно, матиме глибокий вплив на правові наслідки використання машинного навчання для аналізу загальнодоступних даних, а також на такі дані, які все ще можна буде отримувати від веб-користувачів у епоху після відстеження, яка зараз є. будучи введеним Apple, Firefox і (до а меншій мірі), Chrome.

Може знадобитися чітке визначення юрисдикції, наприклад, у випадках, коли гіганти FAANG збирають дані користувачів відповідно до GDPR, але обробляють ці дані за допомогою систем машинного навчання за межами Європейського Союзу. Незрозуміло, чи можна алгоритми, отримані за допомогою таких систем, застосовувати до платформ всередині ЄС, і ще менш зрозуміло, як таке застосування може бути доведено.

У випадку використання штучного інтелекту для інформування про рішення про позбавлення волі та винесення вироку, a зростаюча тенденція у Сполучених Штатах, у Великобританії власний випадковий Експерименти у цьому секторі були б охоплені новими правилами, якби країна не вийшла з Європейського Союзу.

У 2020 році Білий дім проект меморандуму щодо регулювання штучного інтелекту виклав американську аргументацію щодо низького рівня регулювання штучного інтелекту, заявивши, що «Федеральні агентства повинні уникати регуляторних або нерегуляторних дій, які безпідставно перешкоджають інноваціям і зростанню штучного інтелекту». Можна стверджувати, що таке ставлення, ймовірно, переживе адміністрацію Трампа, за якої був опублікований меморандум, але скоріше відображає майбутні розриви між США та ЄС у зв’язку з новою постановою.

Подібним чином Рада ШІ Великобританії «Дорожня карта ШІ» висловлює великий ентузіазм щодо економічних переваг впровадження ШІ, але загальне занепокоєння тим, щоб нові правила не перешкоджали цьому прогресу.

Перший реальний закон для ШІ

Зобов’язання ЄС щодо правової позиції щодо ШІ є інноваційним. Останні десять років характеризуються a хуртовина білих книг і попередніх висновків комітетів і рекомендацій від урядів у всьому світі, зосереджених на етиці штучного інтелекту, з незначною кількістю прийнятих законів.

ДОКУМЕНТИ З ЕТИКИ ШІ

Географічний розподіл авторів етичних настанов штучного інтелекту за кількістю опублікованих документів згідно з опитуванням 2019 року. Найбільше етичних настанов опубліковано в Сполучених Штатах і в Європейському Союзі, за ними йдуть Великобританія та Японія. Канада, Ісландія, Норвегія, Об’єднані Арабські Емірати, Індія, Сінгапур, Південна Корея, Австралія представлені по 1 документу. Держави-члени G7 виділяються окремо, якщо вони зробили внесок у конкретну заяву G7. Джерело: https://arxiv.org/ftp/arxiv/papers/1906/1906.11668.pdf

Подальше читання

Національна політика та стратегії AI (ОЕСР)