Свяжитесь с нами:

Разрыв в управлении: почему регулирование ИИ всегда будет отставать.

Лидеры мысли

Разрыв в управлении: почему регулирование ИИ всегда будет отставать.

mm

Инновации развиваются со скоростью машин, в то время как управление осуществляется со скоростью человека. По мере экспоненциального роста внедрения ИИ регулирование отстает, что довольно типично для технологической отрасли. Во всем мире правительства и другие структуры стремятся регулировать ИИ, но подходы к этому процессу разрознены и неравномерны.

Одна из проблем заключается в том, что не существует аполитичного подхода к разработке технологий. Существует множество нормативных актов и предложений, от Закона об ИИ Европейского союза до американских регуляторных песочниц, каждый из которых имеет свою собственную философию. Хотя Управление ИИ Этот фактор по своей природе отстает от инноваций, и настоящая проблема заключается в ответственном управлении безопасностью и политикой в ​​условиях этого отставания.

Суть разрыва: инновации на первом месте, контроль — на втором.

Задержка в регулировании — неизбежный побочный продукт технологического прогресса. Например, Генри Форд разрабатывал модель T не с упором на безопасность дорожного движения и правила дорожного движения. Исторически сложилось так, что модели регулирования следуют за инновациями; недавние примеры включают защиту данных, блокчейн и социальные сети. Быстрое развитие ИИ опережает разработку и внедрение политики. Другими словами, телега уже давно стоит впереди лошади.

Одна из проблем заключается в том, что политики часто реагируют на причиненный вред, а не предвидят риски, что создает циклы реактивного управления. Проблема не в самом отставании, а в отсутствии адаптивных механизмов для того, чтобы идти в ногу с возникающими моделями угроз, и в отсутствии желания жертвовать конкурентным преимуществом ради безопасности. Это сценарий «гонки на выживание»; мы подрываем собственную коллективную безопасность ради локальных конкурентных преимуществ.

Глобальная система управления ИИ представляет собой фрагментарную систему, состоящую из различных философских подходов.

Существующие в мире основные подходы к управлению искусственным интеллектом значительно различаются.

В ЕС Закон об искусственном интеллекте Внедренная в прошлом году концепция в значительной степени основана на этических принципах и оценке рисков. Использование ИИ оценивается по уровню риска, при этом некоторые риски считаются неприемлемыми и, следовательно, запрещенными. США, напротив, заняли более строгую позицию. модель регуляторной песочницы Это подчеркивает гибкость в сфере инноваций. Некоторые могут назвать это предоставлением площадок для инноваций, в то время как критики могут назвать это карт-бланшем.

Есть также Хиросимский процесс, которая содержит намерения по глобальной координации, но ограничена в плане реализации; каждая страна G7 по-прежнему сосредоточена на доминировании в области искусственного интеллекта внутри страны.

В США этот вопрос в значительной степени оставлен на усмотрение штатов, что фактически гарантирует отсутствие эффективного регулирования. Федеральное правительство иногда поступает именно так из-за своей неэффективности. Штаты создают новые «песочницы» для привлечения технологических компаний и инвестиций, но маловероятно, что на уровне штатов будет какое-либо значимое регулирование; допускаются лишь исключения.

После Brexit Великобритания ведет внутреннюю и международную борьбу за утверждение своей независимости. Введение регуляторных «песочниц», обусловленное дерегулированием и правительственной программой «Выравнивания возможностей», не является неожиданностью. Правительство Великобритании стремится к тому, чтобы страна стала доминирующей сверхдержавой в области искусственного интеллекта как для внутренних, так и для внешних политических целей и обеспечения стабильности.

ЕС уделяет больше внимания безопасности потребителей, но также и укреплению своего общего рынка. Это вполне логично, учитывая историю ЕС с фрагментарным регулированием. Единые нормы, правила и трансграничная торговля являются ключевыми факторами, определяющими нынешнее состояние ЕС. Они по-прежнему требуют наличия регуляторных «песочниц», но также необходимо, чтобы каждое государство-член к одной и той же дате ввело подобную песочницу в действие.

Это лишь несколько примеров подобных правил, но, пожалуй, наиболее заметных. Ключевой момент заключается в том, что существуют разрозненные нормативные акты, в которых отсутствуют общие определения, механизмы обеспечения соблюдения и трансграничная совместимость. Это создает уязвимости, которые могут быть использованы злоумышленниками.

Политический характер протоколов

Никакое регулирование ИИ не может быть по-настоящему нейтральным; каждое проектное решение, ограничительные меры и правила отражают лежащие в их основе интересы правительства или корпораций. Регулирование ИИ стало геополитическим инструментом; страны используют его для обеспечения экономических или стратегических преимуществ. Контроль за экспортом микросхем — яркий тому пример; он служит косвенным регулированием ИИ.

Единственное эффективно введенное на данный момент регулирование направлено на преднамеренное препятствование развитию рынка. Глобальная гонка за превосходство в области ИИ превращает управление в механизм конкуренции, а не в механизм обеспечения безопасности на основе сотрудничества.

Безопасность без границ, но управление с границами.

Главная и сложная проблема заключается в том, что угрозы, создаваемые искусственным интеллектом, выходят за рамки национальных границ, в то время как регулирование остается ограниченным. Сегодняшние быстро развивающиеся угрозы включают в себя как атаки на системы ИИ, так и атаки, использующие системы ИИ. Эти угрозы выходят за пределы юрисдикций, но регулирование остается разрозненным. Безопасность оказывается изолированной в одном углу, в то время как угрозы распространяются по всему интернету.

Мы уже начинаем наблюдать злоупотребление легитимными инструментами ИИ со стороны глобальных хакерских группировок, использующих слабые средства защиты. Например, вредоносная деятельность наблюдается с использованием инструментов для создания сайтов на основе ИИ, которые больше похожи на клонеры сайтов и могут быть легко использованы для создания фишинговой инфраструктуры. Эти инструменты использовались для имитации страниц входа в самые разные сервисы, от популярных социальных сетей до национальных полицейских управлений.

До тех пор, пока механизмы управления не будут отражать безграничную структуру ИИ, защитники будут по-прежнему ограничены фрагментарными законами.

От реактивного регулирования к проактивной защите

Регуляторная задержка неизбежна, но стагнация – нет. Нам необходимо адаптивное, прогнозирующее управление с рамками, которые развиваются вместе с технологиями; речь идет о переходе от реактивного регулирования к проактивной защите. В идеале это должно выглядеть так:

  • Разработка общих международных стандартов для классификации рисков с использованием искусственного интеллекта.
  • Расширение участия в установлении стандартов за пределы крупных правительств и корпораций. Управление интернетом стремилось (с переменным успехом) использовать многостороннюю модель вместо многосторонней. Хотя она и несовершенна, она оказала огромное влияние на то, чтобы сделать интернет инструментом для всех и минимизировать цензуру и политические блокировки.
  • Содействие разнообразию мнений в сфере управления.
  • Механизм для сообщения об инцидентах и ​​обеспечения прозрачности. Отсутствие регулирования часто означает и отсутствие требований к отчетности. Вряд ли в ближайшем будущем возникнет необходимость информировать общественность о ущербе, причиненном ошибками или проектными решениями в рамках регуляторных песочниц.

Хотя разрыв в управлении никогда не исчезнет, ​​​​совместные, прозрачные и инклюзивные механизмы могут предотвратить его превращение в постоянную уязвимость глобальной безопасности.

Джинни Спайсер — аналитик по киберугрозам в компании... NetcraftОна отслеживает новые тактики и кампании злоумышленников. Ее специализация – сетевой анализ и исследование угроз со стороны государства. Она является президентом отделения HTCIA в Силиконовой долине в 2026 году, членом совета директоров Deep Packet Inspection Consortium и одним из молодежных послов Internet Society в 2025 году.