Connect with us

Почему агенты ИИ в корпоративном секторе сталкиваются с проблемой знаний, а не технологий

Лидеры мнений

Почему агенты ИИ в корпоративном секторе сталкиваются с проблемой знаний, а не технологий

mm
A row of antique leather-bound books stands next to a glowing metal bookend featuring a purple light-up geometric structure on a wooden desk in a modern high-rise office at night.

В прошлом году S&P Global сообщил, что доля компаний, отказавшихся от большинства своих инициатив по ИИ, более чем удвоилась – с 17% до 42%. Ранее Gartner опубликовал прогноз по проектам агентского ИИ: 40% из них будут закрыты к концу 2027 года.

Согласно McKinsey & Company, почти половина всех компаний экспериментирует с агентами ИИ. Но сколько из них перешли от стадии пилотного проекта к фактической эксплуатации? Около одного из десяти.

В отрасли нет недостатка в объяснениях: галлюцинации моделей, отсутствие управления, высокие затраты на GPU и нехватка специалистов. Все эти проблемы являются реальными. Но после трех лет работы с системами управления знаниями и агентами ИИ я все чаще вижу другую закономерность: компании передают своим агентам неполную информацию.

Как доктор педагогических наук, я рассматриваю это как проблему передачи знаний. Если человек не может объяснить, как он принимает решения, его логика не может быть передана новому сотруднику, не говоря уже об агенте ИИ. Давайте рассмотрим, почему это происходит и что можно сделать с этим.

Где находится знание о том, как компания фактически работает

Спросите у большой компании, где хранится знание сотрудников, и вы услышите длинный список: Confluence, SharePoint, платформы LMS, чат-боты FAQ, архивы Slack. Казалось бы, что это именно тот стек, который система RAG может использовать для получения всей необходимой информации. Но один важный элемент отсутствует – знание, которое живет в головах людей. Знание, которое никто никогда не записывал.

Почему это проблема?

Потому что для того, чтобы агент ИИ взял на себя часть рабочего процесса – понял контекст, выбрал действие и довел задачу до завершения – ему нужно не только доступ к базе знаний, но и логика принятия решений, используемая опытным специалистом.

Представьте себе нового агента поддержки, который получает запрос: клиент утверждает, что оплатил услугу, но доступ не был активирован. Сценарий включает стандартный набор шагов, который заканчивается просьбой клиенту подождать. Однако агент заметил, что ситуация необычна: клиент уже обращался в поддержку дважды, и в системе есть несколько подобных случаев за последний час. Он обращается к более опытному коллеге, который объясняет, что он уже видел это раньше и что проблема, скорее всего, заключается в сбое на пересечении платежного шлюза, банка и внутренней системы активации – поэтому дело должно быть передано в другой отдел.

Для агента ИИ эта логика невидима. Он может иметь доступ к сценарию, истории тикетов и статусу оплаты, если эти источники данных подключены, но он не знает, какие сигналы опытный оператор считает решающими. Не то, чтобы эксперты намеренно скрывали эту информацию. Они просто не могут формализовать ее или разбить на шаги: какие варианты были исключены, почему было выбрано определенное действие и в какой момент стало ясно, что стандартный сценарий не подходит. Когнитивные ученые называют это явление неявным знанием – подразумеваемым знанием, о котором даже его владелец может не быть полностью осведомлен.

Это почему бутылочное горлышко возникает не на уровне доступа к документам, а на этапе преобразования опыта экспертов в формат, пригодный для обучения агента ИИ.

Что делать с этим

Чтобы агент ИИ работал эффективно, недостаточно просто подключить LLM к корпоративной базе знаний, поскольку успешные решения часто опираются на неявное знание. Сначала необходимо создать слой знаний, включая структурированные критерии принятия решений.

В управлении знаниями этот процесс называется внешней формализацией – преобразованием неявного знания в явное. Другими словами, компании необходимо понять не только, что делает эксперт, но и как он думает. Это обычно делается через серию глубинных интервью с лучшим экспертом. Вместе с ним должен быть кто-то, умеющий задавать правильные вопросы: методолог, инженер знаний или специалист по проектированию инструкций. Их задача не состоит в том, чтобы написать “инструкцию на основе того, что говорит эксперт”, а в том, чтобы реконструировать критерии выбора между вариантами, разбить на шаги исключительные случаи и выявить типичные ошибки, которые эксперт уже автоматически исправляет.

Здесь ИИ может существенно помочь: транскрибировать интервью, группировать подобные случаи, превращать объяснения экспертов в черновые сценарии и генерировать ситуации для проверки. Однако окончательную структуру все равно необходимо проверить и одобрить эксперту.

Результатом должно стать рабочее тело знаний. Его можно использовать в двух направлениях одновременно – для обучения новых сотрудников и для настройки агента ИИ. Оба сценария опираются на один и тот же фундамент: структурированный опыт лучших специалистов.

Альтернативой является продолжение полагаться на предположение, что RAG над Confluence каким-то образом реконструирует логику, которая никогда не была задокументирована. На практике это почти никогда не работает: система может извлечь соответствующий документ, но она не научится принимать решения в ситуациях, когда правильное действие зависит от контекста и опыта.

Как проверить, что агент готов к работе

Вы преобразовали знания экспертов в сценарии и настроили агента. Но существует разрыв между правдоподобными ответами агента и реальной операционной эффективностью – и этот разрыв становится видимым только во время проверки. На этом этапе важно определить, действительно ли вы захватили все необходимое знание.

Практический подход – сценарное тестирование. Вы даете агенту реальные случаи из повседневной работы эксперта: клиент оспаривает плату, приходит необычное письмо или появляется запрос, который не вписывается в базовый сценарий. Результаты не должны оцениваться другим LLM, а тем же экспертом, который помог создать тело знаний. Если агент выбирает другой путь, чем опытный специалист, это не всегда означает, что модель слабая. Чаще всего это указывает на то, что отсутствует критическое правило, исключение или пример. В этом случае процесс возвращается к началу: методолог уточняет логику с экспертом, тело знаний обновляется, инструкции уточняются, и тест повторяется.

Этот цикл не является необязательным шагом, а этапом, который определяет разницу между агентом, который просто “демонстрирует потенциал”, и тем, который действительно выполняет работу. Это медленный и не очень впечатляющий этап процесса: он не производит эффектного демо и требует участия экспертов. Но те, кто проходит его систематически, в конечном итоге получают агентов, которые действительно снижают рутинную нагрузку на специалистов. Те, кто пропускает его, часто оказываются в статистике Gartner, которая прогнозирует, что 40% проектов будут закрыты.

Агентское ИИ не терпит неудач из-за технологий – современные модели уже способны выполнять сложные задачи. Оно терпит неудачу, потому что компании “кормят” его неполной информацией. В 2024-2025 годах это еще можно было объяснить экспериментальной стадией. В 2026 году эта ошибка уже обходится дорого.

Дмитро Корчевський є засновником Sintegrum, штучно-інтелектуальної платформи HR, яка допомагає компаніям автоматизувати набір персоналу, адаптацію, навчання працівників та управління знаннями.

Він також заснував STEP IT Academy, глобальну освітню мережу, яка діє в 26 країнах, і має докторський ступінь з педагогіки, зосереджуючись на тому, як штучний інтелект може підтримувати масштабне навчання та розвиток робочої сили.