Лидеры мысли
Когда ИИ делает нас быстрее, но не умнее, и что лидеры должны с этим делать

Для многих ИИ предлагает решение самых разных бизнес-задач. Он может стать вторым пилотом, автоматизировать рабочие процессы и стать помощником аналитика. Но, хотя организации работают быстрее, они меньше думают. Поэтому реальный риск, который представляет ИИ, — это не замена рабочих мест, а размывание знаний.
Исследования уже доказали это. Швейцарская бизнес-школа SBS обнаружила, что рост использования искусственного интеллекта связан с снижение критического мышления способности.
Эта эрозия имеет серьёзные последствия, поскольку навыки, делающие человеческие суждения ценными, деградируют, поскольку команды полагаются на результаты машин, не понимая, как они работают. Ослабление логики, необоснованные предположения и ухудшение управления моделями не гарантируют эффективности ИИ, а, наоборот, повышают уязвимость бизнеса.
Неправильное понимание компетентности ИИ
Организации отмечают ускорение результатов как свидетельство успешного внедрения ИИ. Но скорость — обманчивый показатель. То, что многие команды называют компетентностью в области ИИ, всё чаще ошибочно принимают за быстроту и беглость. Однако сотрудники должны быть уверены в получаемых ответах.
Если результат кажется правильным, многие люди считают, что так оно и есть. Проверки моделей забываются, а предположения остаются без проверки. В результате сотрудники начинают полагаться на ИИ для выводов, которые раньше требовали рассуждений.
A Исследование 2025 Подтверждает эту закономерность. В исследовании была обнаружена «значительная отрицательная корреляция между частым использованием инструментов ИИ и способностью к критическому мышлению, обусловленная повышенной когнитивной разгрузкой». Более молодые участники, которым удобнее всего работать с интерфейсами ИИ, продемонстрировали более низкие баллы по критическому мышлению, чем участники старшего возраста.
Эта точка зрения также подтверждается результатами исследования Economic Times, которые обнаружили, что фундаментальное мастерство в области ИИ не достигается путём освоения подсказок. Оно обусловлено человеческими навыками интерпретации, проверки и контекстуализации машинного вывода, а мастерство в области ИИ основано на критическом мышлении, аналитическом мышлении, творческом решении проблем и эмоциональном интеллекте. Без этих навыков пользователи становятся пассивными потребителями ИИ-контента, а не активными участниками принятия решений.
Тревожно, что эта когнитивная разгрузка наблюдается на нейронном уровне. Газета Economic Times опубликовала исследование, проведённое в Массачусетском технологическом институте в рамках исследования, в котором было обнаружено, что у участников, часто использовавших ChatGPT, наблюдалось ухудшение запоминания, более низкие результаты и снижение мозговой активности при попытках справиться с заданиями без помощи ИИ. Как отмечают исследователи, «это удобство оборачивалось когнитивными потерями». Ученики, использующие ИИ, показали худшие результаты «на всех уровнях: нейронном, лингвистическом и оценивании».
Эти результаты помогают понять, чему мешают методы ИИ. Они ослабляют когнитивные навыки, которые специалисты используют каждый день:
- Аналитические рассуждения
- Проверка гипотезы
- Отладка инстинктов
- Интуиция в домене
Это недавнее исследование наконец проливает свет на ранее не замеченные недостатки ИИ на человеческом уровне. И это становится всё более серьёзной проблемой при принятии решений с высокими ставками, таких как управление рисками, прогнозирование и распределение ресурсов, которые требуют понимания контекста. Чем меньше люди понимают логику, лежащую в основе построения модели, тем более неопределённым становится принятие решений.
Почему слабые навыки взаимодействия с людьми создают риски на уровне предприятия
Новое разделение компетенций ослабляет управление
По мере повсеместного внедрения искусственного интеллекта во многих организациях возникает раскол. С одной стороны, инспекторы, которые могут подвергать сомнению, оспаривать, интерпретировать и уточнять результаты. С другой стороны, операторы, которые принимают результаты за чистую монету и двигаются дальше.
Это разделение имеет гораздо большее значение, чем думает большинство руководителей. Эффективность управления зависит от команд, способных анализировать предположения модели, а не только ответы. Когда меньше людей понимают, как работает система, небольшие изменения, такие как ранние признаки дрейфа модели и изменения качества данных, могут остаться незамеченными.
Когда команды принимают результаты ИИ, не подвергая их сомнению, мелкие ошибки распространяются по цепочке и быстро усугубляются. Чрезмерная зависимость становится точкой отказа. Возникает вопрос: что происходит, когда организация отдаёт суждения на аутсорсинг быстрее, чем накапливает знания?
Этот пробел в управлении также тормозит инновации. Команды, не способные взаимодействовать с ИИ, не могут уточнять подсказки или распознавать новизну и оригинальность идеи. Инновации концентрируются вокруг сокращающегося круга экспертов, что замедляет способность организации адаптироваться.
Инновации останавливаются, когда человеческое любопытство ослабевает
ИИ может ускорить и автоматизировать многие задачи, но он не может заменить человеческий инстинкт задавать вопросы и искать ответы, выходящие за рамки очевидных. Однако этот врождённый человеческий инстинкт разрушается. Это известно как упадок агентности. четырехступенчатый Прогресс в том, как люди перекладывают мыслительные процессы на машины:
- Эксперимент: Из любопытства и удобства люди начинают делегировать небольшие задачи ИИ. Это расширяет возможности и эффективно.
- Интеграция: ИИ становится частью повседневных задач. У людей сохраняются базовые навыки, но они чувствуют себя некомфортно, работая с помощниками.
- Зависимость: ИИ начинает принимать сложные решения. Пользователи становятся самоуспокоенными, а когнитивные способности начинают атрофироваться, часто незаметно.
- Зависимость: также известна как «выбранная слепота». Люди не могут эффективно функционировать без ИИ, но сохраняют уверенность в своей автономности.
Этот прогресс важен, поскольку ИИ подрывает способность распознавать недостаток знаний и находить новые решения для новых проблем. Эти навыки высшего порядка требуют постоянной тренировки. Однако удобство ИИ позволяет легко ими пренебрегать.
В результате организации становятся эффективными, но нетворческими. Исследования и разработки зависят от человеческого любопытства и скептицизма, поскольку и то, и другое приходит в упадок, когда результаты остаются без ответа. Эта потеря любопытства и самостоятельности представляет собой стратегический риск.
Потеря неявных знаний делает организацию хрупкой
В здоровых, функциональных командах экспертные знания передаются горизонтально через связи между коллегами и вертикально — от старших к младшим. Но поскольку сотрудники передают вопросы ИИ, а не людям, эти петли наставничества ослабевают. Младшие сотрудники перестают учиться на экспертных суждениях и принимать их во внимание, а старшие постепенно перестают документировать знания, поскольку ИИ заполняет пробелы в повседневной работе.
Со временем основные знания и навыки вымываются. Но этот риск проявляется не сразу, поэтому компании кажутся продуктивными, но их фундамент становится хрупким. Когда модель дает сбой или возникают аномалии, у команд больше нет достаточной глубины знаний, чтобы уверенно реагировать.
Пример исследования бухгалтерской фирмы, опубликованный в Порочные круги разрушения навыков Установлено, что долгосрочная зависимость от когнитивной автоматизации приводит к значительному снижению уровня человеческих знаний. По мере того, как работники всё больше доверяют автоматизированным функциям, снижается их осведомлённость о своей деятельности, поддержание компетентности и оценка результатов. Исследователи отмечают, что эта эрозия навыков остаётся незамеченной сотрудниками и руководителями, в результате чего команды оказываются неподготовленными к сбоям систем.
Что должны сделать лидеры, чтобы восстановить глубину и избежать чрезмерной зависимости
Предприятия не могут замедлить внедрение ИИ, но они могут усилить способность сотрудников к человеческому суждению, что повысит надёжность ИИ. Это начинается с переосмысления компетентности в области ИИ в масштабах всей организации, поскольку быстрое владение не означает профессионализм. Истинные способности включают в себя понимание логики модели и умение вовремя переопределять машинный вывод.
Чтобы понять это, сотрудникам необходимо пройти обучение, чтобы понять, как модель упрощает контекст, как отклонения проявляются в повседневной работе и в чём разница между убедительным и обоснованным результатом. Заложив эту основу, руководители смогут внедрить критическое мышление в повседневные рабочие процессы, нормализуя проверки, такие как:
- Какое предположение делает эта модель?
- Что может сделать этот вывод неверным?
- Противоречит ли это чему-либо, что мы знаем из опыта?
Этот критический анализ занимает всего несколько минут, но позволяет преодолеть кризис когнитивной разгрузки, помогая контролировать работу сотрудников и результаты работы модели ИИ.
Лучший способ обучения сотрудников для компаний — это использование реальных систем. Слишком часто обучение ориентировано на идеальные сценарии. Но у компаний таких сценариев нет; у них есть системы, в которых данные неполны, контекст неоднозначен, а человеческое суждение имеет значение.
Например, если логистическая компания обучала свою команду по маршрутизации только на чистых наборах данных, где ИИ работал безупречно, сотрудники были бы совершенно не готовы. Реальные условия, такие как погодные условия, могут привести к тому, что модели ИИ будут выдавать неверные инструкции. Если бы сотрудники никогда не сталкивались с неопределенным поведением системы, они бы не распознали ранние признаки отклонения или не знали, когда нужно вмешаться. В данном случае проблема не в модели, а в недостаточном обучении. Крайне важно обучать сотрудников работе с имеющимся у них ИИ, включая сценарии отклонения, неоднозначные результаты, неполные данные и сбои. Именно здесь человеческие возможности восстанавливаются.
Чтобы обеспечить практическую ценность обучения, руководителям компаний необходимо оценивать человеческие возможности, а не только системные результаты. Организации обычно отслеживают точность моделей или показатели экономии затрат, но редко отслеживают поведение, свидетельствующее о сильном человеческом контроле. Документируют ли сотрудники, почему они доверяют результатам модели? Увеличивают ли они количество нестандартных результатов? Эти наблюдаемые действия показывают, укрепляется ли или ослабевает логическое мышление. Когда руководители отмечают и вознаграждают сотрудников, которые улучшают подсказки посредством глубокого анализа или высказывают обоснованные сомнения в результатах работы ИИ, они закрепляют привычки, обеспечивающие устойчивость внедрения ИИ.
ИИ будет становиться всё быстрее. Это не подлежит обсуждению. Вопрос в том, сохранят ли команды навыки, необходимые для того, чтобы подвергать сомнению, корректировать и перенаправлять ИИ, когда дела идут не так. Вот тут-то и проявится разница. Организации, которые сейчас инвестируют в человеческое суждение, получат реальную ценность от ИИ, а не хрупкую эффективность. Все остальные строят на песке.












