Connect with us

Мы больше не выравниваем ИИ. Мы выравниваем цивилизации

Искусственный интеллект

Мы больше не выравниваем ИИ. Мы выравниваем цивилизации

mm

На протяжении многих лет основным вопросом в области искусственного интеллекта (ИИ) было, как выровнять модели ИИ с человеческими ценностями. Исследователи пытались определить правила безопасности, этические принципы и механизмы контроля, которые руководят решениями ИИ. Эта работа достигла значительного прогресса. Но теперь, когда эти системы ИИ становятся более мощными и распространенными,焦点 выравнивания начинает смещаться. То, что началось как задача выравнивания одной модели с одним набором инструкций, теперь стало гораздо более крупной задачей выравнивания целых цивилизаций, которые используют эти системы на глобальном уровне. ИИ больше не является просто инструментом. Он эволюционирует в среду, где общества работают, общаются, ведут переговоры и конкурируют. В результате выравнивание больше не остается технической проблемой. Он стал цивилизационной проблемой. В этой статье я объясняю, почему выравнивание больше не только о моделях и почему мы должны начать думать в терминах цивилизаций, а не машин. Я также обсуждаю, как это смещение влияет на наши обязанности и что это значит для глобального сотрудничества.

Чьи ценности ИИ действительно представляет?

Если вы спросите ИИ о чувствительном историческом событии, его ответ зависит от данных, которые он изучил. Если эти данные в основном поступают из западного интернета, ответ будет иметь западную предвзятость. Он будет отдавать приоритет индивидуализму, свободной речи и демократическим идеалам. Эти ценности хороши для многих людей. Но они не являются единственными ценностями в мире.

Пользователь в Сингапуре, пользователь в Эр-Рияде и пользователь в Сан-Франциско имеют разные определения того, что является “полезным” и что является “вредным”. В некоторых культурах социальная гармония более важна, чем абсолютная свобода слова. В других уважение к иерархии более важно, чем нарушение.

Когда компания из Кремниевой долины использует “Reinforcement Learning from Human Feedback” (RLHF), они нанимают людей, чтобы оценить ответы ИИ. Но кто эти люди? Какие их убеждения? Если они выравнивают модель с американскими стандартами, они случайно строят американский культурный экспорт. Они строят цифрового дипломата, который налагает правила одной конкретной цивилизации на остальной мир.

Рост обратных связей

Проблема не только в том, что ИИ отражает убеждения одной культуры. Это то, как эти убеждения могут изменить нас. Современные системы ИИ имеют потенциал формировать поведение отдельных лиц, организаций и даже стран. Они могут влиять на то, как мы думаем, работаем, доверяем и конкурируем. Это создает обратные связи между системами ИИ и человеческими обществами; мы обучаем ИИ, и ИИ формирует, как мы думаем и действуем. Эти обратные связи становятся сильнее, поскольку ИИ становится более повсеместным. Чтобы увидеть, как работает эта обратная связь, вот два примера:

  • Массовое развертывание ИИ меняет социальное поведение, а социальное поведение меняет данные, которые обучают новые системы. Например, алгоритм рекомендаций может формировать то, что люди смотрят, читают и верят. Инструменты продуктивности меняют то, как команды сотрудничают и как студенты учатся. Эти сдвиги в поведении меняют закономерности данных в форме разных привычек просмотра, шаблонов коммуникации на рабочем месте или стилей письма. Когда эти данные поступают в будущие наборы данных для обучения, модели корректируют свои предположения и выходные данные соответственно. Поведение человека формирует модели, и модели, в свою очередь, формируют поведение человека.
  • Автоматические инструменты принятия решений влияют на государственную политику, а государственная политика влияет на будущее обучение моделей. Например, многие правительства теперь используют ИИ, чтобы предложить, где выделить ресурсы, такие как определение, какие районы нуждаются в большей поддержке здравоохранения или какие районы могут иметь более высокий риск преступности. Когда политики принимают решения на основе этих рекомендаций, результаты этих решений позже становятся частью новых наборов данных. Со временем решения политики, сформированные ИИ, в конечном итоге формируют следующее поколение моделей ИИ.

Как только вы признаете эту обратную связь, становится ясно, что ИИ постепенно формирует и выравнивает цивилизации. В результате страны начинают задаваться вопросом: Как они могут защитить свои ценности, интегрируя ИИ в свои общества и учреждения?

Появление суверенного ИИ

Эта задача выравнивания вызвала значительную реакцию со стороны правительств всего мира. Страны осознали, что зависимость от импортированного ИИ является риском для их суверенитета. Они не могут позволить себе, чтобы их граждане были обучены, проинформированы и посоветованы черным ящиком, который думает как иностранец.

Это осознание привело к появлению “суверенного ИИ“. Франция инвестирует значительные средства в создание моделей, которые говорят на французском языке и понимают французское право и культуру. Индия строит коренные модели ИИ, чтобы обеспечить свои культурные ценности. Объединенные Арабские Эмираты и Китай строят модели ИИ, выровненные со своими национальными видениями.

Это новый военный парад. Это гонка за контроль над повествованием. Цивилизация, которая не имеет своего ИИ, в конечном итоге потеряет свою память. Если ваши дети зададут машине вопрос, и машина ответит логикой другой культуры, ваша культура начинает эродировать. Это осознание, однако, может привести к образованию отдельных цифровых блоков. Мы можем в конечном итоге получить западный ИИ, китайский ИИ, индийский ИИ и так далее. Эти системы будут работать с разными фактами и моральными компасами. Эти разработки делают ясным, что если мы хотим создать одну, действительно выровненную модель ИИ, мы должны сначала найти способ выровнять цивилизации.

Необходимость дипломатического ИИ

Традиционное выравнивание предполагает, что модель может быть выровнена тщательным обучением, подсказками и ограждениями. Это мышление исходит из технического мышления ранних исследований безопасности ИИ. Но даже идеальное выравнивание модели не может решить проблемы выравнивания цивилизаций. Выравнивание не может остаться стабильным, когда общества тянут в противоположных направлениях. Если страны, компании и сообщества имеют конфликтующие цели, они будут толкать системы ИИ к отражению этих конфликтов. Эти ограничения показывают, что выравнивание не только техническая проблема. Это проблема управления, культуры и координации. И эти проблемы требуют не только экспертов или разработчиков. Они включают целые цивилизации.

Итак, как мы двигаемся вперед? Если мы принимаем, что универсальное выравнивание невозможно, мы должны изменить свою стратегию. Мы должны перестать искать техническое решение философской проблемы. Мы должны начать думать как дипломаты. Нам нужно создать протоколы для “Цивилизационного выравнивания”. Нам нужно выяснить, как ИИ может уважать убеждения и ценности общества без наложения на него убеждений других культур. Другими словами, нам нужны цифровые Организация Объединенных Наций для наших алгоритмов.

Это требует прозрачности. В настоящее время мы не знаем, какие ценности скрыты внутри глубоких слоев нейронной сети. Мы видим только выходные данные. Чтобы выровнять цивилизации, нам нужно быть ясными о “Конституции” каждой модели. Модель должна быть в состоянии объявить свою предвзятость. Она должна быть в состоянии сказать: “Я обучен на этих данных, с этими правилами безопасности, отдающим приоритет этим ценностям”. Только когда предвзятость видна, мы можем доверять системе. Пользователь должен быть в состоянии переключаться между точками зрения. Вы должны быть в состоянии задать вопрос и увидеть, как “западная” модель отвечает по сравнению с тем, как “восточная” модель отвечает. Это превратит ИИ в инструмент для понимания, а не в инструмент для индоктринации.

Основная мысль

Мы слишком много времени беспокоились о Терминаторе. Реальный риск не в том, что робот уничтожит нас. Реальный риск в том, что робот заставит нас забыть, кто мы есть. Выравнивание не является кодом, который мы можем написать один раз и забыть. Это постоянные переговоры с моделями ИИ, чтобы giữать их выровнеными с нашими убеждениями и ценностями. Это политический акт. Когда мы вступаем в эту следующую фазу эпохи интеллекта, мы должны смотреть за пределы экрана. Мы должны учитывать, как ИИ интерпретирует нашу историю, наши границы и наши убеждения. Мы строим умы, которые помогут нам управлять миром. Мы должны убедиться, что эти умы уважают различия между цивилизациями.

Доктор Техсин Зия является доцентом в университете COMSATS в Исламабаде, имеющим степень PhD в области ИИ в Венском техническом университете, Австрия. Специализируясь в области искусственного интеллекта, машинного обучения, науки о данных и компьютерного зрения, он внес значительный вклад с публикациями в авторитетных научных журналах. Доктор Техсин также возглавлял различные промышленные проекты в качестве основного исследователя и служил консультантом по ИИ.