Лидеры мнений
Почему компании должны следовать подходу, основанному на ценностях, к управлению ИИ

В сентябре 2025 года впервые все государства-члены Организации Объединенных Наций собрались, чтобы обсудить международное управление ИИ; многие из них были представлены снова в феврале на саммите по воздействию ИИ в Дели. Мероприятие привело к созданию двух новых органов, центрированных на управлении ИИ; но это было, в лучшем случае, символическим успехом.
Новые механизмы ООН были разработаны для обеспечения консенсуса: они избегают спорных областей, таких как военные применения ИИ, и не имеют четких источников финансирования и полномочий по принуждению. Это не должно удивлять опытных наблюдателей. Сегодняшняя ООН не имеет возможности быстро действовать или обеспечивать универсальное соблюдение своих решений, что делает ее трудной площадкой для реальных изменений.
Это соответствует хорошо установленной модели. Несмотря на годы разрозненных попыток создания консенсуса по регулированию ИИ, не было значительных международных соглашений, что создало пустоту, в которой отдельные страны и блоки были вынуждены разработать свои собственные правила. Однако эффективное управление ИИ имеет решающее значение, если мы хотим увидеть его широкое внедрение, доверие общественности и использование способами, которые приносят устойчивую социальную и экономическую выгоду
Менд и менд
Для глобальных компаний, строящих и эксплуатирующих системы ИИ, отсутствие общих, согласованных механизмов управления является проблематичным. Они хотят развертывать системы ИИ по всему миру, но ни две юрисдикции не соблюдают один и тот же набор правил. Итак, они вынуждены создавать генерическую структуру управления вокруг своей системы, затем перестраивать ее с нуля в каждой стране, в которой они работают, чтобы обеспечить соблюдение местных законов и правил. Этот подход создает огромное количество дополнительной работы, делает инициативы ИИ более дорогими и склонными к задержкам, и ослабляет способность глобальных фирм реализовывать экономию масштаба и делиться эффективными инструментами с пользователями повсюду.
Однако есть альтернатива. Для фирм, стремящихся оптимизировать свой подход, лучшим вариантом может быть создание структуры управления ИИ, которая учитывает общие этические принципы в этих разных регионах, обеспечивая, чтобы они соответствовали высоким стандартам повсюду в плане защиты свободы, конфиденциальности и безопасности людей. Этот метод представляет собой мощный способ для бизнеса ИИ увеличить доверие общественности к их технологии, укрепить свою клиентскую базу и использовать потенциальные выгоды ИИ для общества.
Шесть ключевых ценностей для управления ИИ
Для любой организации, заинтересованной в принятии подхода, основанного на ценностях, к управлению ИИ, я бы предложил использовать шесть ключевых ценностей, которые мы соблюдаем: подотчетность, объяснимость, прозрачность, справедливость, безопасность и оспоримость.
Мы выбрали эти ценности, потому что они покрывают все основные области жизненного цикла системы ИИ и потому, что они уже были кодифицированы в различных международных и национальных стандартах, связанных с ИИ, таких как ISO/IEC 42001 и Artificial Intelligence Playbook for the UK Government.
Чтобы начать с начала, подотчетность означает знание того, кто отвечает за что на каждом этапе жизненного цикла ИИ. Без ясного владения важные контроли могут быть опущены, потому что ни один человек или команда не несет окончательной ответственности. Организации должны назначать старших, именованных владельцев – таких как их главный офицер ИИ – системам ИИ и ключевым этапам и использовать модель управления на основе риска, применяя одинаковую проверку к инструментам третьих сторон, как и к тем, которые разработаны внутри компании. Это означает понимание условий поставщика, ограничений и обязательств так же хорошо, как и своих собственных систем.
Организация экономического сотрудничества и развития (ОЭСР) хорошо отражает это в своем руководстве по продвижению подотчетности в ИИ, которое рекомендует организациям создавать “механизмы для внедрения процесса управления рисками ИИ в более широкое управление организацией, способствуя культуре управления рисками как внутри организаций, так и на протяжении всей цепочки создания стоимости ИИ”.
Далее идет объяснимость. Организации должны быть в состоянии показать, как система ИИ принимает решение. Для этого требуются механизмы для документирования и отслеживания процесса принятия решений, а также четкие записи конструкции системы, обучающих данных и процессов принятия решений. В совокупности это позволяет командам понять происхождение информации от момента создания системы до ее развертывания.
Справедливость фокусируется на обеспечении того, чтобы системы ИИ производили справедливые результаты и не воспроизводили или усиливали существующие предубеждения. Без намеренных проверок системы могут причинить вред, доставляя искаженные результаты – это особая проблема в областях высокого воздействия, таких как набор персонала, здравоохранение и уголовное правосудие. Чтобы смягчить это, организации должны реализовать меры по обнаружению предубеждений, регулярно проверять выводы в соответствующих группах и проектировать структуры управления, которые могут удовлетворять местным требованиям о недискриминации. На практике это означает создание систем, которые соответствуют самому высокому юридическому стандарту, с которым они, вероятно, столкнутся, включая обязательства по законам, таким как Закон о равенстве 2010 года в Великобритании и Хартия фундаментальных прав ЕС.
Прозрачность заключается в том, чтобы принести ясность как пользователям, так и регулирующим органам. Люди должны понимать, когда используется ИИ, какую роль он играет в принятии решений и какие данные лежат в его основе. Практическая отправная точка – стандартизировать документацию по системам ИИ, поддерживаемую внутренними инструментами, такими как карточки модели: короткие документы, предоставляемые с моделями машинного обучения, которые объясняют контекст, в котором модели предназначены для использования, детали процедур оценки производительности и другую соответствующую информацию. Без прозрачности пользователи не могут оспорить несправедливые результаты, регулирующие органы не могут эффективно вмешаться, и вредное воздействие может быть скрыто.
Безопасность включает в себя защиту систем ИИ от несанкционированного доступа, манипуляций или непредвиденного поведения. Если безопасность слаба, ИИ может поставить организации, пользователей и их данные под угрозу, подвергая их финансовому и репутационному вреду. Организации должны определить пороги производительности и точности, тестировать системы в реалистичных условиях и включать тестирование красной команды для выявления уязвимостей.
Наконец, оспоримость гарантирует, что люди имеют четкий и доступный способ оспорить или обжаловать решения, принятые с помощью ИИ. Без этого пострадавшие пользователи не имеют возможности и проблемы могут никогда не быть выявлены или решены. Организации должны предоставлять каналы сообщения на месте использования, назначать старших владельцев для управления жалобами и обеспечивать, чтобы системы могли быть приостановлены, проверены или обновлены при необходимости.
Каковы выгоды от структуры, основанной на ценностях?
Существует две мощные причины для принятия этого подхода, основанного на ценностях, к управлению ИИ. Во-первых, потому что те, кто строит и развертывает системы ИИ, имеют этическую ответственность перед людьми и организациями, на которые они влияют; и, во-вторых, потому что это более эффективный способ реализовать обещанные выгоды ИИ на практике.
Пользователи систем ИИ, как корпоративные, так и индивидуальные, неявно доверяют их создателям не злоупотреблять личными данными или подвергать их ненужному риску. Когда организации нарушают это доверие, становится очень трудно для них сохранить этих пользователей. В конечном итоге, если люди не доверяют системам ИИ и не видят явных выгод, которые они приносят, они не пойдут на их введение. Это приведет к большему социальному и экономическому разделению, и мы упустим многие возможности, представленные этой технологией.
С другой стороны, компании, которые применяют структуру, основанную на ценностях, повсюду – включая регионы с более расслабленными требованиями к управлению – могут продемонстрировать клиентам, инвесторам и регулирующим органам, что они придерживаются более высокого стандарта, чем базовый уровень соответствия. Это строит доверие, вовлеченность и, в конечном итоге, деловой успех.
Сильное управление ИИ – это создатель ценности, а не бремя соответствия. Оно позволяет бизнесу быстрее выводить новые продукты на рынок, снижать свою экспозицию к риску и масштабировать свои решения на нескольких рынках с уверенностью.
Отчет McKinsey “The state of AI” выявил, что “надзор генерального директора за управлением ИИ… является одним из элементов, наиболее тесно связанных с более высоким самораскрытым воздействием на дно линии от использования генерального ИИ организацией”, подчеркивая коммерческие выгоды такого подхода. В этом отношении построение сильных этических рамок в системы ИИ представляет собой просвещенный самоинтерес.
За всем этим, однако, это просто правильное дело. Мы построили нашу глобальную этическую политику ИИ вокруг того же принципа: что передовые технологии должны служить людям и обществу, а не наоборот. Это отражает более широкую концепцию Общества 5.0: человеко-ориентированную модель инноваций, которая стремится объединить экономический прогресс с решением социальных проблем.
Если появляющиеся технологии, такие как ИИ, должны способствовать более счастливому, гармоничному обществу, они должны быть построены на прочных этических основах. Это начинается с фокуса не только на стандартах, которым должны соответствовать организации, но и на стандартах, которых они хотят достичь.












