Лидеры мысли
Достижение баланса: глобальные подходы к снижению рисков, связанных с ИИ

Не секрет, что в течение последних нескольких лет современные технологии раздвигают этические границы в рамках существующих правовых рамок, которые не были созданы для них, что приводит к появлению правовых и нормативных минных полей. Чтобы попытаться бороться с последствиями этого, регулирующие органы выбирают различные способы действий между странами и регионами, усиливая глобальную напряженность, когда не удается достичь соглашения.
Эти различия в регулировании были подчеркнуты на недавнем саммите по вопросам ИИ в Париже. последнее утверждение мероприятия, посвященного вопросам инклюзивности и открытости в разработке ИИ. Интересно, что в нем упоминались только безопасность и надежность, без акцентирования внимания на конкретных рисках, связанных с ИИ, таких как угрозы безопасности. Разработанный 60 странами, Великобритания и США Подписи под заявлением явно отсутствуют, что показывает, насколько мал сейчас консенсус между ключевыми странами.
Борьба с рисками ИИ во всем мире
Разработка и внедрение ИИ регулируется по-разному в каждой стране. Тем не менее, большинство из них находятся где-то между двумя крайностями — позицией США и Европейского союза (ЕС).
Американский путь: сначала инновации, потом регулирование
В Соединенных Штатах нет федеральных законов, регулирующих ИИ в частности, вместо этого он полагается на рыночные решения и добровольные руководящие принципы. Тем не менее, есть некоторые ключевые законодательные акты для ИИ, включая Закон о национальной инициативе ИИ, который направлен на координацию федеральных исследований ИИ, Закон о повторной авторизации Федерального управления гражданской авиации и добровольную структуру управления рисками Национального института стандартов и технологий (NIST).
Нормативно-правовая база США остается нестабильной и подверженной большим политическим изменениям. Например, в октябре 2023 года президент Байден издал указ Указ о безопасном, защищенном и надежном искусственном интеллекте, внедрение стандартов для критической инфраструктуры, повышение кибербезопасности на основе ИИ и регулирование финансируемых из федерального бюджета проектов ИИ. Однако в январе 2025 года президент Трамп отменил этот указ, в повороте от регулирования к приоритету инноваций.
Подход США имеет своих критиков. Они отмечают, что его «фрагментарный характер» приводит к сложной сети правил, которые «отсутствие обязательных стандартов», и имеет «пробелы в защите конфиденциальности.” Однако позиция в целом находится в состоянии перемен — в 2024 году законодатели штата ввели почти 700 новых законов об ИИ и там было многократные слушания по ИИ в управлении, а также ИИ и интеллектуальной собственности. Хотя очевидно, что правительство США не уклоняется от регулирования, оно явно ищет способы его внедрения без необходимости идти на компромисс с инновациями.
Путь ЕС: приоритет профилактики
ЕС выбрал другой подход. В августе 2024 года Европейский парламент и Совет ввели Закон об искусственном интеллекте (Закон об искусственном интеллекте), который широко считается наиболее всеобъемлющей частью регулирования ИИ на сегодняшний день. Используя подход, основанный на оценке риска, этот акт налагает строгие правила на высокочувствительные системы ИИ, например, те, которые используются в здравоохранении и критической инфраструктуре. Приложения с низким уровнем риска подвергаются лишь минимальному надзору, в то время как в некоторых приложениях, таких как государственные системы социального скоринга, они полностью запрещены.
В ЕС соблюдение требований является обязательным не только в пределах его границ, но и для любого поставщика, дистрибьютора или пользователя систем ИИ, работающих в ЕС или предлагающих решения ИИ на его рынке, даже если система была разработана за его пределами. Вероятно, это создаст проблемы для поставщиков интегрированных продуктов из США и других стран, не входящих в ЕС, по мере того, как они будут адаптироваться.
Критика подхода ЕС включает в себя его предполагаемые неспособность установить золотой стандарт за права человека. Чрезмерная сложность также было отмечено отсутствие ясности. Критики обеспокоены тем, что ЕС очень высокие технические требования, поскольку они происходят в то время, когда ЕС стремится повысить свою конкурентоспособность.
Поиск нормативной середины
Тем временем Соединённое Королевство приняло «облегчённую» систему, которая находится где-то между ЕС и США и основана на таких базовых ценностях, как безопасность, справедливость и прозрачность. Действующие регулирующие органы, такие как Управление комиссара по информации, обладают полномочиями по реализации этих принципов в своих областях.
Правительство Великобритании опубликовало План действий по возможностям ИИ, в котором изложены меры по инвестированию в фонды ИИ, внедрению межэкономического внедрения ИИ и содействию «домашним» системам ИИ. В ноябре 2023 года Великобритания основала Институт безопасности искусственного интеллекта (AISI), возникшая на основе Frontier AI Taskforce. AISI была создана для оценки безопасности современных моделей ИИ, сотрудничая с крупными разработчиками с целью достижения этой цели посредством испытаний на безопасность.
Однако критика подхода Великобритании к регулированию ИИ включает в себя: ограниченные возможности принуждения и еще один несогласованность между отраслевым законодательством. Критики также отметили отсутствие центрального регулирующего органа.
Как и Великобритания, другие крупные страны также нашли свое место где-то в спектре США-ЕС. Например, Канада ввела подход, основанный на оценке риска, с предложенным Законом об ИИ и данных (AIDA), который призван обеспечить баланс между инновациями, безопасностью и этическими соображениями. Япония приняла «ориентированный на человека» подход к ИИ, опубликовав руководящие принципы, которые способствуют надежному развитию. Между тем в Китае регулирование ИИ жестко контролируется государством, и недавние законы требуют, чтобы генеративные модели ИИ проходили оценку безопасности и соответствовали социалистическим ценностям. Подобно Великобритании, Австралия выпустила рамочную основу этики ИИ и изучает возможность обновления своих законов о конфиденциальности для решения новых проблем, связанных с инновациями в области ИИ.
Как наладить международное сотрудничество?
По мере того, как технология ИИ продолжает развиваться, различия между подходами к регулированию становятся все более очевидными. Каждый индивидуальный подход, принятый в отношении конфиденциальности данных, защиты авторских прав и других аспектов, затрудняет достижение согласованного глобального консенсуса по ключевым рискам, связанным с ИИ. В этих обстоятельствах международное сотрудничество имеет решающее значение для установления базовых стандартов, которые устраняют ключевые риски, не ограничивая инновации.
Ответ на международное сотрудничество может быть найден в глобальных организациях, таких как Организация экономического сотрудничества и развития (ОЭСР), Организация Объединенных Наций и ряде других, которые в настоящее время работают над установлением международных стандартов и этических норм для ИИ. Путь вперед будет нелегким, поскольку он требует от всех в отрасли нахождения общей позиции. Если учесть, что инновации движутся со скоростью света, то сейчас самое время обсудить и договориться.












