Connect with us

Проблема Надежности ИИ, о Которой Никто Не Хочет Говорить

Лидеры мнений

Проблема Надежности ИИ, о Которой Никто Не Хочет Говорить

mm

Доминирующая нарратива о надежности ИИ проста: модели галлюцинируют. Поэтому, чтобы компании могли получить максимальную пользу от них, модели должны улучшаться. Больше параметров. Лучшие тренировочные данные. Больше обучения с подкреплением. Больше согласованности.

И все же, даже когда модели передового опыта становятся более способными, дебаты о надежности отказываются исчезать. Руководители предприятий все еще колеблются, разрешая агентам принимать значимые действия внутри основных систем. Совет директоров все еще спрашивает: “Можем ли мы ему доверять?”

Но галлюцинации не являются в первую очередь проблемой модели. Они являются проблемой контекста. Мы просим системы ИИ работать на предприятии без предоставления им структурной видимости, необходимой для безопасного рассуждения. Затем мы обвиняем модель, когда она угадывает.

Настоящий пробел в надежности не в весах, а в информационном слое.

Хирург Без Визуализации

Представьте себе хирурга, работающего без визуализации. Нет МРТ. Нет КТ. Нет реального времени визуализации окружающих тканей. Только общее понимание анатомии и скальпель. Даже самый опытный хирург был бы вынужден делать предположения. Приблизить. Полагаться на вероятностное рассуждение.

Вот что делают сейчас агенты ИИ предприятия.

Когда систему ИИ просят изменить рабочий процесс, обновить правило ERP или запустить автоматизацию по инструментам, она редко имеет полный граф зависимостей окружающей среды. Она не знает, какое “неиспользуемое” поле питает панель вниз по потоку. Она не видит, какая автоматизация ссылается на это правило проверки. Она не может надежно смоделировать вторичное воздействие.

Итак, она делает то, для чего обучены большие языковые модели: она предсказывает. Предсказание не является пониманием. А предсказание без структурного контекста выглядит как галлюцинация.

Мы Продолжаем Формулировать Неправильные Дебаты

Сообщество ИИ было заперто в модели-центричном разговоре о надежности. Статьи о законах масштабирования. Исследования цепочки рассуждений подсказки. Техники аугментации извлечения. Оценочные эталоны.

Все необходимое. Все ценное. Но обратите внимание, что отсутствует: обсуждение топологии предприятия.

Надежность в контексте предприятия не просто означает “модель генерирует правильный текст”. Она означает “система делает изменения, которые являются безопасными, отслеживаемыми и предсказуемыми”.

Это фундаментально другое требование.

Когда OpenAI и Anthropic публикуют оценки производительности модели, они измеряют точность на задачах рассуждения, эталонах кодирования или воспоминании знаний. Это полезные сигналы. Однако они не измеряют способность агента ИИ безопасно изменить живую систему выручки с 15-летним накопленным долгом автоматизации.

Проблема не в том, может ли модель написать синтаксически правильный код; это в том, понимает ли ИИ окружающую среду, в которую этот код развертывается.

Живые Системы Накапливают Энтропию

Предприятия не являются статическими базами данных. Они являются живыми системами. Каждая новая интеграция оставляет след. Каждая кампания вводит поле. Каждый “быстрый исправление” вводит дополнительный слой автоматизации. Со временем эти слои взаимодействуют способами, которые никто полностью не понимает.

Это функция роста. Сложные адаптивные системы естественно накапливают энтропию. Исследования MIT Sloan School давно подчеркивают, как информационная асимметрия внутри организаций усугубляет операционный риск. Тем временем Gartner оценивает, что плохое качество данных стоит организациям в среднем $12,9 миллиона в год.

Теперь представьте себе внедрение автономных агентов в эту среду без предварительного решения ее структурной не透pareнности.

Мы не должны удивляться, когда результаты кажутся непредсказуемыми. Агент не злонамеренный или глупый. Он слепой. Он строит в темноте.

Извлечение Не Достаточно

Некоторые могут утверждать, что генерация, дополненная извлечением (RAG), решает эту проблему. Дайте модели доступ к документации. Подкормите ее описаниями схем. Подключите ее к API.

Это помогает.

Но документация не является топологией.

PDF, объясняющий, как рабочий процесс “должен” работать, не является тем же, что и реальное время графа того, как он фактически взаимодействует с 17 другими автоматизациями.

Реальность предприятия редко соответствует документации предприятия.

Исследование 2023 года, опубликованное в Communications of the ACM найдено, что устаревшая документация является основным вкладом в неудачи технического обслуживания программного обеспечения. Системы развиваются быстрее, чем их нарративы.

Итак, даже когда мы предоставляем агентам ИИ документацию, мы часто предоставляем им частичную или идеализированную карту.

Частичные карты все равно производят уверенные ошибки.

Слой Агента – Это Фактический Слой Безопасности

Мы склонны думать о безопасности как о тренировке согласованности, барьерах, красных команд и фильтрах политики. Все важное. Но в контексте предприятия безопасность является контекстной. Это знание:

  • Что зависит от этого поля?
  • Какая автоматизация ссылается на этот объект?
  • Какие отчеты вниз по потоку будут разрушены?
  • Кто владеет этим процессом?
  • Когда это было изменено в последний раз?
  • Какие исторические изменения предшествовали текущей конфигурации?

Без этого слоя агент ИИ фактически импровизирует внутри черного ящика. С этим слоем он может смоделировать воздействие перед выполнением. Разница между галлюцинацией и надежностью часто заключается в видимости.

Почему Модель Обвиняется

Почему, тогда, дебаты фокусируются так сильно на моделях? Потому что модели являются читаемыми. Мы можем измерить перплексию. Мы можем сравнить баллы бенчмарка. Мы можем опубликовать кривые масштабирования. Мы можем обсуждать качество тренировочных данных.

Информационная топология внутри предприятий намного сложнее. Она требует межфункциональной координации. Она требует дисциплины управления. Она заставляет организации столкнуться с накопленной сложностью своих собственных систем.

Легче сказать “модель не готова”, чем признать “наша инфраструктура не透pareна”.

Но когда агенты ИИ переходят от генерации контента к операционному выполнению, эта формулировка становится опасной.

Если мы будем рассматривать надежность исключительно как проблему модели, мы продолжим развертывать агентов в средах, которые они не могут осмысленно воспринимать.

Автономность Требует Контекста

Эксперименты Anthropic недавно с командами разработки программного обеспечения на основе нескольких агентов показывают, что системы ИИ могут координироваться по сложным задачам, когда им предоставляется структурированный контекст и постоянная память. Граница возможностей развивается быстро. Но этот тип автономности без осведомленности о окружающей среде хрупок.

Самоходный автомобиль не полагается только на мощную нейронную сеть. Он зависит от лидара, камер, систем картографирования и реального времени окружающей среды. Модель является одним слоем внутри более широкого стека восприятия.

ИИ предприятия нуждается в эквиваленте лидара. Не только доступ к API. Не только документация. Но структурированное, динамическое понимание системных зависимостей.

Пока это не будет существовать, дебаты о галлюцинациях будут продолжать неправильно диагностировать коренную причину.

Скрытый Риск: Чрезмерная Уверенность

Есть другой тонкий риск в текущей формулировке.

Когда модели улучшаются, их выходы становятся более плавными, более убедительными, более авторитетными.

Плавность усиливает чрезмерную уверенность.

Когда агент уверенно изменяет систему без полного контекста, сбой не сразу очевиден. Он может проявиться через несколько недель как расхождение в отчете, пробел в соблюдении или ошибка в прогнозировании выручки. Потому что модель кажется компетентной, организации могут переоценить ее операционную безопасность. Фактический режим сбоя является правдоподобной ошибкой.

И правдоподобная ошибка процветает в темноте.

Переформулирование Вопроса О Надежности

Вместо того, чтобы спрашивать: “Достаточно ли хороша модель?” Мы должны спрашивать: “Имеет ли агент достаточный структурный контекст, чтобы действовать безопасно?” Вместо измерения точности бенчмарка мы должны измерять видимость окружающей среды. Вместо обсуждения количества параметров мы должны проверять не透pareнность системы.

Следующая граница надежности ИИ не просто больше моделей. Это более богатые контекстные слои.

Это включает в себя:

  • Графы зависимостей предприятия
  • Отслеживание изменений в реальном времени
  • Отображение владения
  • Осведомленность о исторической конфигурации
  • Симуляция воздействия перед выполнением

Ничего из этого не является гламурным. Ничего из этого не трендит в социальных сетях. Но именно здесь будет выиграна надежность.

Строительство С Включенными Лампами

Руководители предприятий правы, требуя надежности, прежде чем предоставлять агентам операционную власть. Но путь вперед не в ожидании мифической модели, свободной от галлюцинаций.

Это инвестиции в инфраструктуру видимости, которая делает возможным интеллектуальное действие.

Мы не позволим бы младшему админу изменить производственные системы без понимания зависимостей. Мы не должны позволять агентам ИИ делать это тоже.

Цель? Снизить слепые пятна.

Когда агенты работают со структурным пониманием, показатели галлюцинаций снижаются не потому, что изменилась модель, а потому, что поверхность для угадывания уменьшается.

Предсказание становится рассуждением. Рассуждение становится симуляцией. Симуляция становится безопасным выполнением.

Неизбежный Сдвиг

В течение следующих пяти лет стек ИИ будет разделяться. Один слой будет фокусироваться на возможностях модели: глубине рассуждения, многомодальной плавности и эффективности затрат. Другой будет фокусироваться на информационной/контекстной топологии: графах систем, интеллекте метаданных и рамках управления.

Организации, которые рассматривают надежность исключительно как упражнение по выбору модели, будут бороться.

Организации, которые рассматривают надежность как архитектурное свойство, будут двигаться быстрее с меньшим риском.

Дебаты о галлюцинациях будут выглядеть наивными в ретроспективе. Реальная история будет о видимости.

ИИ не является по своей природе безрассудным.

Он работает в темной комнате.

Пока мы не решим эту проблему, мы не строим интеллектуальные системы. Мы строим мощные предсказатели внутри не透pareнных окружающих сред.

И это означает, что, несмотря на все прогресс, ИИ все еще строит в темноте.

Ido Gaver является CEO и сооснователем Sweep, где он руководит исследованием и стратегией продукта на пересечении ИИ, архитектуры метаданных и корпоративного управления. Его работа сосредоточена на обеспечении безопасной и контекстно-зависимой работы агентных систем ИИ в крупномасштабных корпоративных программных экосистемах.

Раскрытие информации о рекламе: Unite.AI придерживается строгих редакционных стандартов, чтобы предоставлять читателям точную информацию и новости. Мы можем получать вознаграждение, если вы переходите по ссылкам на продукты, которые мы рассмотрели.