Connect with us

Почему управляемый ИИ является следующей границей на рабочем месте

Лидеры мнений

Почему управляемый ИИ является следующей границей на рабочем месте

mm
A split-view comparison of an office desk showing the messy, chaotic reality of Shadow AI on one side and a clean, governed AI workspace on the other.

Мы провели десятилетие, борясь с тенью ИТ. Неавторизованные приложения SaaS. Бунтующие электронные таблицы. Неутвержденные учетные записи Dropbox. Руководители ИТ создали целые программы соответствия требованиям вокруг этой проблемы, и большинство из них все равно проиграли. Отчет Reco AI 2025 года о состоянии тени ИИ показал, что только 47% приложений SaaS внутри среднего предприятия正式ально авторизованы — и средняя организация сейчас управляет 490 из них.

Это была старая проблема. Новая проблема хуже.

Проблема тени ИИ отличается в этот раз

Когда сотрудник регистрируется в неутвержденном инструменте управления проектами, ущерб ограничен. Задачи команды находятся в неправильном месте. Может произойти утечка некоторых данных. Тип утечки данных довольно предсказуем.

ИИ отличается. Сотрудники теперь используют инструменты ИИ для написания коммуникаций с клиентами, генерации финансовых отчетов, суммирования конфиденциальных встреч и создания автоматических рабочих процессов, часто без уведомления кого-либо. Индекс тенденций работы Microsoft 2024 года показал, что 78% пользователей ИИ приносят свои собственные инструменты ИИ на работу. Не потому, что они пытаются быть трудными или злонамеренными, а потому, что инструменты действительно полезны и они чувствуют давление выполнения работы лучше. Однако их организации слишком медлительны в предоставлении процессов, процедур и инструментов.

Выходы здесь являются проблемой. Когда инструмент ИИ создает проект контракта с клиентом, суммирует юридический звонок или генерирует квартальный отчет совета директоров, риск не только в том, что “мы не знаем, какой инструмент они использовали”. Это то, что практики данных, точность и принятие решений, встроенные в эти выходы, полностью невидимы для организации. Никто не проверил запрос. Никто не подтвердил результат. Никто даже не знает, что это произошло. И потому, что ИИ кажется так уверенным, большинство пользователей не будут проверять источники и слепо принимают результаты.

Анализ KPMG 2025 года тени ИИ показал, что 44% сотрудников, использующих ИИ на работе, сделали это способами, противоречащими политике и руководящим принципам их компании. Это не поведение на окраине. Это почти половина рабочей силы.

Почему автономные агенты делают это труднее (и лучше)

Вот где разговор становится интересным. Мы не просто говорим о сотрудниках, которые вставляют текст в ChatGPT. Мы вступаем в эпоху агентов ИИ — автономных систем, которые могут работать непрерывно, выполнять многоступенчатые задачи, подключаться к инструментам предприятия и принимать решения без участия человека в каждом решении.

Отчет Deloitte 2025 года о тенденциях технологий описывает это как сдвиг в сторону “кремниевой рабочей силы” и отмечает, что многие ранние реализации агентного ИИ терпят неудачу именно потому, что организации пытаются автоматизировать существующие процессы, разработанные для людей, а не переосмысливать, как должна работать работа.

Это развилка на дороге. Автономный ИИ может пойти двумя путями;

Путь один: больше тени ИТ, но хуже. Сотрудники запускают агентов, используя личные учетные записи, запускают их на корпоративных ИТ, подключают их к корпоративным инструментам через личные ключи API, генерируют выходы, которые никто другой в команде не может увидеть, проверить или воспроизвести. Агент запускает ежедневный отчет. Отчет неверен. Никто не обнаруживает это в течение недель, потому что никто другой даже не знал, что он существует. Это не гипотетически. Это происходит прямо сейчас в организациях, которые рассматривают принятие ИИ как индивидуальную проблему производительности.

Путь два: управляемая автономность. Тот же агент запускает тот же ежедневный отчет — но внутри среды, где команда может видеть, что он делает, какие данные он касается, кто его настроил и что он произвел. Агент общий, а не изолированный. Его выходы видны. Его разрешения ограничены. И когда что-то идет не так, есть след.

Разница между этими двумя путями не в технологии. Это среда.

Как выглядит управляемый ИИ на практике

Управление — одно из тех слов, которое заставляет строителей содрогаться. Оно обычно означает “медленно”. Больше утверждений. Больше процесса. Больше трения между людьми, которые выполняют работу, и людьми, которые управляют риском.

Но управляемый ИИ не обязательно работает таким образом. Лучшие реализации, которые я видел, имеют несколько характеристик;

Видимость по умолчанию. Каждый сгенерированный ИИ выход — каждый отчет, каждое оповещение, каждый черновик — виден команде, а не закопан в чьей-то личной истории чата. Это не о слежке. Это о общем контексте. Когда агент производит еженедельный конкурентный анализ, вся команда должна быть в состоянии увидеть его, задать вопросы и построить на нем.

Ограниченные разрешения, а не полный доступ. Агент, который отслеживает ваши журналы ошибок, не нуждается в доступе к вашей CRM. Агент, который создает социальный контент, не нуждается в доступе к вашим финансовым данным. Принцип наименьших привилегий не новый. Это просто редко применяется к системам ИИ — и должно быть.

Следы аудита, которые действительно существуют. Плейбук McKinsey по безопасности агентного ИИ подчеркивает, что автономные агенты представляют “массив новых и сложных рисков и уязвимостей, которые требуют внимания и действий сейчас”. Одним из наиболее основных является: если вы не можете отслеживать, что сделал агент, какие данные он доступил и какие решения он принял, вы не можете управлять им. Полностью.

Управление на уровне команды, а не только на уровне ИТ. Это часть, которую большинство рамок управления неправильно понимают. Они централизуют все управление ИИ в ИТ или безопасности, что создает именно тот瓶颈, который заставляет тень ИИ появляться в первую очередь. Организации, которые это делают правильно, передают управление на уровень команды — позволяя менеджерам и руководителям команд настраивать, ограничивать и контролировать агентов, которые их команды используют, в пределах, установленных ИТ, но не микроуправляемых.

Где организации делают все правильно

Компании, которые хорошо развертывают агентов ИИ, не те, у которых самые сложные модели. Это те, у которых самые четкие границы работы.

Я вижу самые сильные результаты в трех областях;

Отчетность и мониторинг. Агенты, которые запускают запланированные отчеты — ежедневные встречи, еженедельные обзоры метрик, сводки журналов ошибок — и доставляют их напрямую в каналы команд. Значение здесь не только в автоматизации. Это последовательность. Отчет запускается каждое утро, независимо от того, помнит ли кто-то вытащить данные или нет. И потому, что это видно команде, ошибки обнаруживаются быстрее.

Потоки контента и коммуникаций. Черновики, а не публикация. Агенты, которые производят первые черновики внутренних обновлений, суммирования встреч или исходящего контента — а затем выводят их для человеческого обзора. Управление здесь имеет значение, потому что планка качества отличается, когда выход идет клиенту, а не внутреннему каналу Slack.

Анализ и оповещение. Агенты, которые отслеживают панели, флагируют аномалии и отправляют оповещения, когда метрики выходят за пределы ожидаемых диапазонов. Это заменяет проблему “кто-то должен за этим следить”, которая преследует каждую команду, которая когда-либо теряла выходные из-за незамеченной проблемы в производстве.

Что большинство организаций все еще делают неправильно

Самая большая ошибка заключается в том, что управление ИИ рассматривается как проблема политики, а не как проблема инфраструктуры.

Вы можете написать все политики использования, которые хотите. Если ваши сотрудники не имеют санкционированной, простой в использовании среды для развертывания ИИ, которая действительно работает для их ежедневных потребностей, они обойдут вашу политику. Это не проблема людей. Это проблема дизайна.

Анализ IDC тени ИИ делает эту точку ясной: скрытая производительность ИИ “душит принятие ИИ в предприятии” потому, что организации застряли между желанием получить выгоду и страхом рисков. Результат — бездействие — которое является худшим возможным исходом, потому что оно гарантирует неконтролируемое принятие.

Вторая ошибка заключается в том, что управление и скорость рассматриваются как противоположности. Они не являются. Лучшие управляемые среды ИИ также являются самыми быстрыми — потому, что команды не тратят время на повторение работы, которая уже существует, отладку агентов, которых они не могут увидеть, или перестройку рабочих процессов, которые сломались, потому что кто-то ушел из компании и его личный аккаунт ИИ ушел с ним.

Граница — это среда, а не модель

Внимание отрасли сосредоточено на возможностях модели. Большие окна контекста. Лучшее рассуждение. Мультимодальные входы. Это имеет значение. Но для большинства команд, которые пытаются выполнить работу, узким местом не является модель. Это среда, в которой работает модель.

Может ли команда видеть, что она делает? Может ли она контролировать, что она доступает? Может ли она делиться тем, что она производит? Может ли она доверять, что она работает с правильными данными и правильными ограничениями?

Это вопросы инфраструктуры, а не вопросы модели. И они будут отделять организации, которые получают реальную, устойчивую ценность от ИИ, от тех, которые просто добавляют еще один слой тени ИТ.

Граница не в построении более умных моделей. Это построение сред, где умные модели могут действительно работать.

Марсель Фоларон является сооснователем CoChat, где он создает управляемые рабочие пространства ИИ для команд. Он провел последнее десятилетие, работая на пересечении командного сотрудничества, автоматизации и управления предприятием.