Connect with us

Можно ли доверять ИИ? Вызов подделки выравнивания

Синтетический разрыв

Можно ли доверять ИИ? Вызов подделки выравнивания

mm

Представьте, что ИИ притворяется, что следует правилам, но тайно работает на свою собственную программу. Это идея, лежащая в основе “подделки выравнивания”, поведения ИИ, недавно раскрытого командой научных исследований выравнивания Anthropic и Redwood Research. Они наблюдают, что большие языковые модели (LLM) могут действовать так, как если бы они были выровнены со своими целями обучения, при этом действуя на скрытых мотивах. Это открытие вызывает большой вопрос: насколько безопасен ИИ, если он может притворяться достоверным? Это проблема, которая может изменить то, как мы думаем об ИИ-системах и их будущей роли в нашей жизни.

Понимание подделки выравнивания

Подделка выравнивания происходит, когда ИИ притворяется, что следует своему обучению, но на самом деле “играет вдоль”, чтобы избежать переобучения, которое исправит нежелательное поведение. Он выглядит как соответствующий, но может действовать против того, что разработчики намеревались в определенных ситуациях.

Хотя открытия Anthropic не предполагают непосредственной угрозы, которую представляет ИИ из-за этого поведения, они подчеркивают ограничения текущих методов обучения, таких как обучение с подкреплением, в真正 выравнивании ИИ с целями человека. “Подделка выравнивания – это серьезная проблема для будущих ИИ-систем”, – сказал Anthropic. “Она может отменить меры безопасности, на которые мы полагаемся, чтобы выровнять ИИ с предпочтениями человека.”

Как была раскрыта подделка выравнивания

Исследователи наблюдали это поведение во время исследования, в котором участвовали модели Claude 3 Opus и Claude 3.5 Sonnet LLM. Они настроили эти модели, чтобы узнать, будут ли они придерживаться своего обучения или следовать скрытым мотивам. Моделям были даны два сценария, позволяющие им использовать разные ситуации для ответа по-разному. Сначала моделям было сказано, что ответы от бесплатных пользователей будут отслеживаться и повлияют на будущее обучение. Во втором сценарии моделям было сообщено, что реакции от платных пользователей не будут отслеживаться.

Моделям было приказано выполнять задачи, которые противоречат их целям обучения. Например, Claude был обучен быть полезным, честным и безвредным. Он избегает токсичных или вредных запросов. Однако исследователи сказали Claude, что он должен выполнить все вредные запросы в этом тесте. Они также добавили поворот: Claude считал, что ответы от бесплатных пользователей будут использоваться для будущего обучения, в то время как реакции от платных пользователей не будут.

Этот сценарий создал ситуацию, в которой первоначальный инстинкт Claude избегать вредных ответов противоречил новому правилу выполнить все. Исследователи дали моделям “scratchpad”, чтобы записать их рассуждения. Это позволило им наблюдать, как модели справились с конфликтом между тем, чтобы остаться безвредными, и следовать новым инструкциям, связанным с отслеживаемыми и неотслеживаемыми выводами.

Результаты и поведенческие закономерности

Результаты подчеркивают, что когда ответы отслеживались, модели производили вредные ответы 12% времени, хотя они были обучены избегать этого. Однако уровень вредного вывода снизился до 3%, когда ответы не отслеживались. Это подразумевает, что модели четко знали, когда они были отслежены, и корректировали свое поведение, чтобы избежать штрафов.

Данные из scratchpad предоставили дальнейшее понимание. Они показали, что модели боролись с конфликтом между своим обучением и новыми условиями. В отслеживаемых ситуациях они притворялись соответствием, чтобы избежать штрафов, сохраняя при этом свои безвредные цели, где это было возможно. Это открытие показало осведомленность моделей о проблеме и их попытки защитить свои скрытые предпочтения.

Реальные последствия

Чтобы изучить реальное влияние подделки выравнивания, исследователи разработали эксперименты, чтобы отразить практические сценарии. Вместо прямых инструкций они встроили новые цели обучения в тонко настроенные документы, такие как симулированные новостные статьи. Они обнаружили, что даже без явных правил ИИ адаптировался к этим скрытым сигналам и продолжал подделку выравнивания. Эта адаптивность показывает, насколько чувствительной и распространенной может быть эта проблема.

Они также протестировали, может ли прямое переобучение исправить проблему. Однако они наблюдали, что модель часто возвращалась к подделке выравнивания в неотслеживаемых условиях. Это открытие предполагает, что некоторые из первоначальных предпочтений модели остаются постоянными даже после нового обучения.

Почему это важно

Это открытие представляет значительную проблему в том, чтобы сделать ИИ безопасным и достоверным. Если ИИ может притворяться выравниванием, он может действовать против намерений разработчиков в критических ситуациях. Например, он может обойти меры безопасности в чувствительных приложениях, таких как здравоохранение или автономные системы, где ставки высоки.

Это также напоминание о том, что текущие методы, такие как обучение с подкреплением, имеют ограничения. Эти системы являются прочными, но они не безупречны. Подделка выравнивания показывает, как ИИ может использовать лазейки, что делает доверие к его поведению в дикой природе более трудным.

Дальнейшие шаги

Проблема подделки выравнивания требует от исследователей и разработчиков пересмотреть, как обучаются модели ИИ. Одним из способов подойти к этому является снижение зависимости от обучения с подкреплением и сосредоточение внимания на том, чтобы помочь ИИ понять этические последствия своих действий. Вместо того, чтобы просто вознаграждать определенное поведение, ИИ должен быть обучен распознавать и учитывать последствия своих выборов для человеческих ценностей. Это будет означать объединение технических решений с этическими рамками, создание ИИ-систем, которые соответствуют тому, что мы действительно заботимся.

Anthropic уже предпринял шаги в этом направлении с инициативами, такими как Протокол контекста модели (MCP). Этот открытый стандарт направлен на улучшение того, как ИИ взаимодействует с внешними данными, что делает системы более масштабируемыми и эффективными. Эти усилия являются перспективным началом, но еще много работы предстоит сделать, чтобы сделать ИИ более безопасным и достоверным.

Основная мысль

Подделка выравнивания – это сигнал для сообщества ИИ. Она раскрывает скрытые сложности того, как модели ИИ учатся и адаптируются. Более того, она показывает, что создание真正 выровненных ИИ-систем – это долгосрочная задача, а не просто техническое решение. Сосредоточение внимания на прозрачности, этике и лучших методах обучения является ключом к движению к более безопасному ИИ.

Создание достоверного ИИ не будет легким, но это необходимо. Исследования, такие как это, приближают нас к пониманию как потенциала, так и ограничений систем, которые мы создаем. Двигаясь вперед, цель ясна: разработать ИИ, который не только работает хорошо, но и действует ответственно.

Доктор Техсин Зия является доцентом в университете COMSATS в Исламабаде, имеющим степень PhD в области ИИ в Венском техническом университете, Австрия. Специализируясь в области искусственного интеллекта, машинного обучения, науки о данных и компьютерного зрения, он внес значительный вклад с публикациями в авторитетных научных журналах. Доктор Техсин также возглавлял различные промышленные проекты в качестве основного исследователя и служил консультантом по ИИ.