Регулирование
Новый кодекс поведения ИИ ЕС, который повлияет на регулирование

Европейская комиссия недавно представила Кодекс поведения, который может изменить то, как работают компании, занимающиеся ИИ. Это не просто еще один набор рекомендаций, а rather полная переработка надзора за ИИ, которую даже самые крупные игроки не могут игнорировать.
Что делает это khácным? Впервые мы видим конкретные правила, которые могут заставить компании, такие как OpenAI и Google, открыть свои модели для внешнего тестирования, фундаментальный сдвиг в том, как системы ИИ могут быть разработаны и развернуты в Европе.
Новые ключевые игроки в надзоре за ИИ
Европейская комиссия создала框架, который конкретно нацелен на то, что они называют системами ИИ с “системным риском”. Мы говорим о моделях, обученных с более чем 10^25 FLOPs вычислительной мощности – порог, который GPT-4 уже превысил.
Компании должны будут сообщать о своих планах обучения ИИ за две недели до их начала.
В центре этой новой системы находятся два ключевых документа: Фреймворк безопасности и безопасности (SSF) и Отчет о безопасности и безопасности (SSR). SSF представляет собой комплексную дорожную карту для управления рисками ИИ, охватывающую все, от первоначальной идентификации рисков до постоянных мер безопасности. Тем временем, SSR служит подробным инструментом документации для каждой отдельной модели.
Внешнее тестирование для моделей ИИ с высоким риском
Комиссия требует внешнего тестирования для моделей ИИ с высоким риском. Это не ваш обычный внутренний контроль качества – независимые эксперты и офис ИИ ЕС углубляются в эти системы.
Последствия велики. Если вы OpenAI или Google, вам вдруг нужно разрешить外ним экспертам осмотреть ваши системы. Проект явно заявляет, что компании должны “обеспечить достаточное независимое тестирование перед развертыванием”. Это огромный сдвиг от текущего подхода саморегулирования.
Возникает вопрос: кто квалифицирован для тестирования этих невероятно сложных систем? Офис ИИ ЕС вступает в территорию, которая никогда не была картографирована раньше. Им понадобятся эксперты, которые могут понимать и оценивать новую технологию ИИ, сохраняя при этом строгую конфиденциальность того, что они обнаруживают.
Это требование внешнего тестирования может стать обязательным во всей ЕС через акт Комиссии. Компании могут попытаться продемонстрировать соблюдение через “адекватные альтернативные средства”, но никто не знает, что это значит на практике.
Защита авторских прав становится серьезной
ЕС также становится серьезным в отношении авторских прав. Они заставляют поставщиков ИИ создавать четкие политики в отношении того, как они обращаются с интеллектуальной собственностью.
Комиссия поддерживает стандарт robots.txt – простой файл, который говорит веб-ползунам, где они могут и не могут идти. Если веб-сайт говорит “нет” через robots.txt, компании ИИ не могут просто игнорировать это и обучаться на этом контенте все равно. Поисковые системы не могут штрафовать сайты за использование этих исключений. Это шаг власти, который возвращает создателей контента в водительское кресло.
Компании ИИ также должны активно избегать пиратских сайтов при сборе данных для обучения. ЕС даже указывает им на свой “Список наблюдения за контрафактной и пиратской деятельностью” в качестве отправной точки.
Что это значит для будущего
ЕС создает совершенно новое поле для разработки ИИ. Эти требования повлияют на все, от того, как компании планируют свои проекты ИИ, до того, как они собирают свои данные для обучения.
Каждая крупная компания ИИ теперь сталкивается с выбором. Им нужно либо:
- Открыть свои модели для внешнего тестирования
- Разработать, что эти загадочные “альтернативные средства” соблюдения требований выглядят
- Или потенциально ограничить свою деятельность на рынке ЕС
График здесь также имеет значение. Это не какой-то далекий будущий регулятор – Комиссия действует быстро. Им удалось собрать около 1 000 заинтересованных сторон, разделенных на четыре рабочие группы, все из которых разрабатывают детали того, как это будет работать.
Для компаний, строящих системы ИИ, дни “двигаться быстро и выяснять правила позже” могут подойти к концу. Им нужно начать думать об этих требованиях сейчас, а не когда они станут обязательными. Это означает:
- Планирование внешних аудитов в их графике разработки
- Создание прочных систем соблюдения авторских прав
- Строительство фреймворков документации, соответствующих требованиям ЕС
Реальное влияние этих регуляций будет разворачиваться в течение ближайших месяцев. Хотя некоторые компании могут искать обходные пути, другие будут интегрировать эти требования в свои процессы разработки. Фреймворк ЕС может повлиять на то, как происходит разработка ИИ во всем мире, особенно если другие регионы последуют с аналогичными мерами надзора. По мере того, как эти правила переходят от проекта к реализации, отрасль ИИ сталкивается с самым большим регулирующим сдвигом.










