"Регулирование"
ЕС выпустит первые правила искусственного интеллекта

21 апреля Европейский Союз объявит о своей первой нормативной базе, регулирующей использование искусственного интеллекта. Новые правила полностью запретят системы машинного обучения «высокого риска» и введут минимальные стандарты для других технологий машинного обучения, налагая штрафы в размере 20 миллионов евро, или 4% от оборота компании, за нарушения.
Проект отчета о новом законе, полученный от Politico, будет способствовать инновациям и развитию систем искусственного интеллекта на благо экономики и общества ЕС в таких областях, как производство, повышение энергоэффективности и моделирование изменения климата; но это запретит использование машинного обучения в системах кредитного скоринга, автоматическую оценку уголовных наказаний и оценку пригодности для получения пособий по социальному обеспечению и заявлений на получение убежища или визы, среди других запретов, которые будут раскрыты позже.
В проекте прямо указано, что Китайский стиль системы социального подсчета для частных лиц и компаний противоречат ценностям Европейского Союза и будут запрещены в соответствии с постановлением, наряду с технологиями «массового наблюдения», основанными на искусственном интеллекте.
Регулирующий надзор
После его деловое свидание, встреча группы экспертов высокого уровня по искусственному интеллекту в марте 2021 года, ЕС также намерен учредить новый Европейский совет по искусственному интеллекту, в котором будет представлено каждое государство-член, а также представитель Европейской комиссии и органа ЕС по защите данных.
Возможно, наиболее радикальным и потенциально спорным указом в законопроекте является то, что он запрещает системы, которые наносят вред населению ЕС, «манипулируя его поведением, мнениями или решениями», что, возможно, включает многие технологии, лежащие в основе анализа коммерческого и политического маркетинга.
Правила будут делать исключения для борьбы с серьезными преступлениями, разрешая предписанное развертывание систем распознавания лиц в пределах объема и продолжительности использования.
Как широкий размах GDPR, кажется, что эти новые правила могут быть достаточно общими, чтобы спровоцировать «сдерживающий эффект» в областях, где не предусмотрены строгие правила использования ИИ, поскольку корпорации рискуют подвергнуться воздействию, когда их использование машинного обучения попадает в потенциально серую зону. в рамках регламента.
Предвзятость в соответствии с новыми правилами ЕС по искусственному интеллекту
Тем не менее, безусловно, самая большая проблема и возможная юридическая трясина возникают в форме положения проекта постановления о том, что наборы данных не «включают какие-либо преднамеренные или непреднамеренные предубеждения», которые могут способствовать дискриминации.
Смещение данных — один из самых сложных аспектов в разработке систем машинного обучения — его трудно доказать, трудно решить, и он тесно связан с центральной культурой органов, занимающихся сбором данных. Эта проблема все больше ставит частные и государственные исследовательские органы в противоречие между необходимостью точного представления отдельных групп (практически основная цель вычислительной математики и эмпирического статистического анализа) и возможностью пропаганды расового профилирования и культурной демонизации, помимо других соображений. .
Поэтому вполне вероятно, что рынки, не входящие в ЕС, будут надеяться, что новый регламент предоставит, по крайней мере, некоторые конкретные области руководства и ряд применимых определений в этом отношении.
Внешнее сопротивление Регламенту AI ЕС
Новый регламент, вероятно, окажет глубокое влияние на юридические последствия использования машинного обучения для анализа общедоступных данных, а также на такие данные, которые все еще можно будет извлечь из веб-пользователей в эпоху пост-отслеживания, которая в настоящее время будучи введенным Apple, Firefox и (к в меньшей степени), Chrome.
Может потребоваться четкое определение юрисдикции, например, в случаях, когда гиганты FAANG собирают пользовательские данные в соответствии с GDPR, но обрабатывают эти данные с помощью систем машинного обучения за пределами Европейского Союза. Неясно, могут ли алгоритмы, полученные с помощью таких систем, применяться к платформам внутри ЕС, и еще менее ясно, как такое применение может быть доказано.
В случае использования ИИ для информирования о решениях о заключении под стражу и вынесении приговора растущая тенденция в Соединенных Штатах, собственная случайная Эксперименты в этом секторе подпадали бы под действие новых правил, если бы страна не вышла из Европейского Союза.
В 2020 году Белый дом проект меморандума по регулированию ИИ заявил об американском аргументе в пользу низкого регулирования ИИ, заявив, что «Федеральные агентства должны избегать регулирующих или нерегулирующих действий, которые без необходимости препятствуют инновациям и развитию ИИ». Возможно, такое отношение, вероятно, переживет администрацию Трампа, при которой был опубликован меморандум, но скорее отражает надвигающееся столкновение между США и ЕС после принятия нового регламента.
Точно так же Совет Великобритании по искусственному интеллекту «Дорожная карта ИИ» выражает большой энтузиазм по поводу экономических выгод от внедрения ИИ, но в целом озабочен тем, чтобы новые правила не помешали этому прогрессу.
Первый реальный закон для ИИ
Приверженность ЕС правовой позиции в отношении ИИ является новаторской. Последние десять лет характеризовались метель официальных документов и предварительных выводов комитетов и рекомендаций от правительств всего мира, сосредоточенных на этике ИИ, при этом фактических законов принято немного.

Географическое распределение издателей этических руководств по искусственному интеллекту по количеству опубликованных документов, согласно опросу 2019 года. Наибольшее количество этических руководств выпущено в США и Европейском союзе, за ними следуют Великобритания и Япония. Канада, Исландия, Норвегия, ОАЭ, Индия, Сингапур, Южная Корея, Австралия представлены по 1 документу. Государства-члены стран G7, внесших свой вклад в конкретное заявление G7, выделены отдельно. Источник: https://arxiv.org/ftp/arxiv/papers/1906/1906.11668.pdf
Дальнейшее чтение
Национальная политика и стратегии в области искусственного интеллекта (ОЭСР)