Лидеры мысли
Препятствием для ИИ является не неудача, а слишком медленная скорость её возникновения.

Препятствием для ИИ является не неудача, а слишком медленная скорость её возникновения.
Искусственный интеллект (ИИ) трансформирует способы работы, внедрения инноваций и развития организаций. В различных отраслях организации используют ИИ для оптимизации рабочих процессов, повышения эффективности и принятия более быстрых и уверенных решений. По мере того как ИИ незаметно становится движущей силой современной производительности, он помогает организациям достигать большей гибкости и масштабируемости.
Однако, несмотря на многочисленные измеримые преимущества ИИ, происходит нечто неожиданное. Многие предприятия сталкиваются с препятствиями. Вместо ускорения инноваций некоторые команды увязают в сложностях, управлении рисками и растущем страхе перед неизвестным.
Почему? Потому что мы думаем об этом неправильно.
Искусственный интеллект слишком часто ошибочно воспринимается как технология, которую необходимо полностью контролировать, прежде чем ей можно будет доверять. Это происходит из-за ошибочного убеждения, что уверенность является необходимым условием безопасности. Но такое толкование упускает из виду суть ИИ и то, какую пользу он приносит. ИИ — это адаптивный инструмент, предназначенный для обучения и развития в процессе использования. Отношение к нему так, как будто он должен вести себя как традиционное программное обеспечение, является ошибочным толкованием его природы и подрывает его потенциал.
В стремлении ответственно использовать ИИ многие организации непреднамеренно превратили снижение рисков в узкое место. В разных отраслях команды не решаются внедрять ИИ, если не могут детально проанализировать, объяснить и обосновать каждый этап процесса принятия решений, зачастую до непрактичной степени. Хотя такой уровень тщательности отражает благие намерения, он часто противоречит самой цели ИИ: ускорению получения информации, усилению команд и решению проблем в масштабе.
Пришло время переосмыслить подход, отказавшись от стремления к полному контролю и перейдя к модели, которая делает акцент на устойчивости, производительности и практической объяснимости, не останавливая при этом инновации.
Страх перед «чёрным ящиком» препятствует прогрессу.
Люди испытывают естественное чувство дискомфорта по отношению к системам, которые они не до конца понимают, а инструменты искусственного интеллекта — особенно большие генеративные модели — часто работают таким образом, что это не поддается простому объяснению. В результате многие руководители попадают в ловушку: если они не могут полностью объяснить каждое решение ИИ, системе нельзя доверять.
В результате многие организации чрезмерно усложняют процессы контроля, добавляя уровни межфункциональных проверок, проверок на соответствие требованиям и аудитов объяснимости, даже для сценариев использования с низким уровнем риска. Когда команды рассматривают объяснимость как необходимость вскрыть каждый «черный ящик», они загоняют внедрение ИИ в бесконечные циклы проверок. Это создает «операционный паралич», при котором команды настолько боятся совершить ошибку в работе с ИИ, что прекращают все, что приводит к неуклонному снижению темпов развития, застою инициатив и, в конечном итоге, к упущенным возможностям.
Проблема не в цели, лежащей в основе систем управления, а в предположении, что снижение рисков должно быть равнозначно контролю. На практике более эффективным подходом является проектирование систем ИИ с упором на устойчивость, а не на совершенство. Ключевым моментом является отказ от процедурного подхода в пользу мышления, ориентированного на результат.
Устойчивость в ИИ означает признание того, что ошибки неизбежны, и создание механизмов защиты, способных их обнаруживать и исправлять. Это означает переход от обсуждения способов предотвращения всех возможных сбоев к обсуждению способов обеспечения быстрого обнаружения и вмешательства, когда что-то идет не по плану.
Большинство современных систем создаются с учетом того, что определенный уровень ошибок неизбежен. Например, от инструментов кибербезопасности не ожидается высокой точности. 100% непроницаемыйОни не предназначены для этого. Вместо этого они предназначены для обнаружения, реагирования и создания протоколов быстрого восстановления. Те же ожидания должны применяться и к искусственному интеллекту.
Требование полной прозрачности каждого решения, принимаемого с помощью ИИ, непрактично и может быть контрпродуктивным для создания ценности. Вместо этого организации должны отстаивать «объяснимость на уровне панели мониторинга», которая обеспечивает достаточный контекст и контроль для выявления ошибок и применения мер защиты, не останавливая при этом инновации в масштабах предприятия.
Не усложняйте внедрение ИИ.
Организациям следует стремиться к полной совместимости при внедрении ИИ, независимо от сценария использования. Полная совместимость не является отвлекающим фактором, а обеспечивает бесшовную интеграцию и раскрывает больший потенциал для различных систем. В будущем в масштабах предприятий вполне возможно увидеть виртуальные армии агентов ИИ, работающих вместе для достижения общих целей.
Такой подход заключается в том, чтобы адаптировать объяснимость к уровню риска — перестать рассматривать каждый сценарий использования ИИ так, как если бы это было управление беспилотным автомобилем. Команды могут достичь этого, проектируя системы ИИ, которые являются продуктивными, ответственными и соответствуют намерениям человека, не усложняя при этом развертывание.
Некоторые практические стратегии включают в себя:
- Внедрение ИИ там, где у людей и так возникают трудности: Используйте ИИ для улучшения процесса принятия решений человеком в сложных, масштабных областях, таких как распределение ресурсов, приоритизация задач или управление бэклогом, где скорость и масштаб важнее полной уверенности.
- Определение показателей успеха ИИ: Вместо того чтобы пытаться объяснить каждую модель, определите, что именно означает хороший результат. Улучшаются ли сроки выполнения? Сокращается ли объем доработок? Чаще ли пользователи принимают предложения ИИ? Эти показатели дают более четкое представление о том, насколько хорошо работает ИИ, чем углубление в детали того, как модель принимает решения.
- Установление пороговых значений доверия: Установите допуски для случаев, когда результаты работы ИИ могут быть автоматически приняты, помечены как неприемлемые или отправлены на проверку человеку, и создайте цикл обратной связи, чтобы помочь системе учиться и совершенствоваться с течением времени.
- Обучение команд задавать правильные вопросы: Вместо того чтобы превращать каждую команду в эксперта по ИИ, следует сосредоточиться на обучении их задавать правильные вопросы, например, для решения какой проблемы используется ИИ, какие риски наиболее важны и как будет отслеживаться эффективность.
- Приоритет человеческого мышления: Даже самые лучшие системы ИИ выигрывают от человеческого контроля. Создавайте рабочие процессы, которые позволяют людям проверять, исправлять или отменять действия ИИ, чтобы обеспечить общую ответственность.
Этот подход можно сравнить с вождением автомобиля. Большинство из нас не понимает, как работает трансмиссия, как сгорание топлива приводит к ускорению или как датчики обнаруживают находящиеся поблизости транспортные средства, но это не мешает нам водить машину. Мы полагаемся на приборную панель: упрощенный интерфейс, предоставляющий необходимую для безопасного вождения информацию, такую как скорость, уровень топлива и предупреждения о необходимости технического обслуживания.
Системы искусственного интеллекта должны управляться аналогичным образом. Нам не нужно каждый раз открывать капот, когда запускается двигатель. Необходим четкий набор индикаторов, показывающих, когда что-то не так, где может потребоваться вмешательство человека и какие шаги следует предпринять дальше. Такая модель позволяет организациям сосредоточиться на контроле там, где это действительно важно, не утопая в технической сложности.
Перестаньте сами себе мешать.
Искусственный интеллект никогда не будет безупречным. И если организации будут предъявлять к нему требования совершенства, которым не может соответствовать ни одна команда людей, они рискуют упустить возможность переосмыслить работу, ускорить принятие решений и раскрыть потенциал всей организации.
Сосредоточившись на устойчивости, а не на контроле, используя объяснимые параметры на уровне панели мониторинга и адаптируя надзор к контексту, мы можем перестать слишком много думать об ИИ и начать добиваться с его помощью больших успехов.












