Connect with us

Чому керований AI є наступним рубежем на робочому місці

Лідери думок

Чому керований AI є наступним рубежем на робочому місці

mm
A split-view comparison of an office desk showing the messy, chaotic reality of Shadow AI on one side and a clean, governed AI workspace on the other.

Ми провели десятиліття, борючись із тіньовими ІТ. Неавторизовані додатки SaaS. Нелегальні таблиці. Неавторизовані облікові записи Dropbox. Лідери ІТ створили цілі програми з питань відповідності, і більшість з них усе одно програли. Звіт Reco AI про стан тіньового AI за 2025 рік показав, що лише 47% додатків SaaS всередині середньої компанії офіційно авторизовані — і середня організація зараз керує 490 з них.

Це була стара проблема. Нова проблема гірша.

Проблема тіньового AI відрізняється цього разу

Коли працівник реєструється на неавторизованому інструменті управління проектами, шкода обмежена. Завдання команди знаходяться не в тому місці. Можливо, деякі дані витікають. Тип витоку даних досить передбачуваний.

AI відрізняється. Працівники зараз використовують інструменти AI для написання повідомлень клієнтам, генерації фінансових звітів, підсумовування конфіденційних зустрічей та створення автоматизованих робочих процесів, часто без повідомлення нікого. Індекс тенденцій роботи Microsoft за 2024 рік показав, що 78% користувачів AI привносять свої власні інструменти AI на роботу. Не тому, що вони намагаються бути складними чи зловмисними, а тому, що інструменти справді корисні, і вони відчувають тиск виконання роботи краще. Однак їхні організації занадто повільні у наданні процесів, процедур та інструментів.

Вихідні дані тут є проблемою. Коли інструмент AI створює чернетку договору клієнта, підсумовує юридичний дзвінок або генерує квартальний звіт ради директорів, ризик не тільки в тому, що “ми не знаємо, який інструмент вони використовували”. Це те, що дані практики, точність та процес прийняття рішень, закладені в цих вихідних даних, повністю невидимі для організації. Ніхто не переглядав запит. Ніхто не підтвердив результат. Ніхто навіть не знає, що це відбулося. І тому, що AI здається такою впевненою, більшість користувачів не будуть перевіряти джерела та сліпо прийматимуть результати.

Аналіз KPMG тіньового AI за 2025 рік показав, що 44% працівників, які використовують AI на роботі, робили це способами, що суперечать політиці та керівним принципам їхньої компанії. Це не периферійна поведінка. Це майже половина робочої сили.

Чому автономні агенти роблять це складніше (і краще)

Ось де розмова стає цікавою. Ми не просто говоримо про працівників, які вставляють текст у ChatGPT. Ми вступаємо в епоху агентів AI — автономних систем, які можуть працювати безперервно, виконувати багатокрокові завдання, підключатися до корпоративних інструментів та приймати рішення без участі людини в кожному рішенні.

Звіт Deloitte про тенденції технологій за 2025 рік описує це як зміну до “кремнієвої робочої сили” та відзначає, що багато ранніх реалізацій агентів AI терплять невдачу саме тому, що організації намагаються автоматизувати існуючі процеси, призначені для людей, а не переосмислювати, як робота повинна проходити.

Це роздоріжжя. Автономний AI може піти двома шляхами:

Шлях перший: ще більше тіньових ІТ, але гірше. Працівники створюють агентів за допомогою особистих облікових записів, які працюють на корпоративних ІТ, підключаються до корпоративних інструментів через особисті ключі API, генерують вихідні дані, які ніхто інший в команді не може бачити, перевірити чи відтворити. Агент виконує щоденний звіт. Звіт неправильний. Ніхто не помічає цього протягом тижнів, оскільки ніхто інший навіть не знав, що воно існує. Це не гіпотетично. Це відбувається зараз в організаціях, які розглядають прийняття AI як індивідуальну продуктивність.

Шлях другий: керований автономний режим. Той самий агент виконує той самий щоденний звіт — але всередині середовища, де команда може бачити, що він робить, які дані він торкається, хто його налаштував, і що він виробляє. Агент спільний, а не ізольований. Його вихідні дані видимі. Його дозволи обмежені. І коли щось пішло не так, є слід.

Як виглядає керований AI на практиці

Керування — це одне з тих слів, яке робить будівельників крижаними. Це зазвичай означає “повільно”. Більше затверджень. Більше процесу. Більше тертя між людьми, які виконують роботу, та людьми, які керують ризиком.

Але керований AI не має працювати так. Найкращі реалізації, які я бачив, мають кілька спільних ознак:

Відкритість за замовчуванням. Кожен вихід, згенерований AI — кожен звіт, кожне сповіщення, кожен чернетка — видимий для команди, а не похований в особистій історії чату. Це не про спостереження. Це про спільний контекст. Коли агент створює щотижневий аналіз конкурентів, вся команда повинна бути в змозі бачити його, ставити питання та будувати на ньому.

Ограничені дозволи, а не повний доступ. Агент, який моніторить ваші журнали помилок, не потребує доступу до вашої CRM. Агент, який створює соціальний контент, не потребує доступу до ваших фінансових даних. Принцип мінімальної привілегії не новий. Це просто рідко застосовується до систем AI — і повинно бути.

Сліди аудиту, які насправді існують. Плейбук McKinsey про безпеку агентів AI підкреслює, що автономні агенти представляють “масив нових та складних ризиків і вразливостей, які вимагають уваги та дії зараз”. Одним з найосновніших є те, що якщо ви не можете відстежити, що зробив агент, які дані він доступив, і які рішення він прийняв, ви не можете керувати ним. Крапка.

Контроль на рівні команди, а не тільки на рівні ІТ. Це частина, яку більшість кадрів керування неправильно розуміють. Вони централізують весь контроль AI в ІТ або безпеці, що створює саме瓶нець, який спонукає тіньовий AI з першого місця. Організації, які це роблять правильно, передають контроль на рівень команди — дозволяють менеджерам і керівникам команди налаштовувати, обмежувати та моніторити агентів, які їхня команда використовує, всередині обмежень, встановлених ІТ, але не мікрокерування.

Де організації роблять все правильно

Компанії, які розгортають агентів AI добре, не ті, у яких найбільш складні моделі. Це ті, у яких найчіткіші робочі межі.

Я бачу найкращі результати в трьох областях:

Звітність і моніторинг. Агенти, які виконують заплановані звіти — щоденні зустрічі, щотижневі підсумки метрик, підсумки журналів помилок — і доставляють їх безпосередньо в канали команди. Цінність тут не тільки в автоматизації. Це послідовність. Звіт виконується кожної ранку, незалежно від того, чи хтось пам’ятає отримувати дані або ні. І тому, що це видно для команди, помилки виявляються швидше.

Потоки роботи з контентом та комунікацією. Створення чернеток, а не публікація. Агенти, які створюють перші чернетки внутрішніх оновлень, підсумків зустрічей або зовнішнього контенту — а потім поверх них для людського огляду. Керування тут має значення, оскільки план якості відрізняється, коли вихід іде клієнту, а не внутрішньому каналу Slack.

Аналіз і сповіщення. Агенти, які моніторять панелі, виділяють аномалії та відправляють сповіщення, коли метрики виходять за очікувані діапазони. Це замінює проблему “хтось повинен дивитися на це”, яка турбує кожну команду, яка коли-небудь втрачала вихідні через непомічену проблему виробництва.

Що більшість організацій все ще робить неправильно

Найбільша помилка полягає в тому, що керування AI розглядається як проблема політики, а не інфраструктури.

Ви можете написати всі політики про прийнятне використання, які хочете. Якщо ваші працівники не мають санкціонованого, легкого в користуванні середовища для розгортання AI, яке справді працює для їхніх щоденних потреб, вони обійдуть вашу політику. Це не проблема людей. Це проблема дизайну.

Аналіз IDC тіньового AI робить цю точку ясно: продуктивність тіньового AI “душить прийняття AI в організації” тому, що організації застряли між бажанням вигод і страхом ризиків. Результат — бездіяльність — яке є найгіршим можливим результатом, оскільки воно гарантує неконтрольоване розгортання.

Друга помилка полягає в тому, що керування та швидкість вважаються протилежними. Вони не є. Найкраще кероване середовище AI також є найшвидшим — оскільки команди не витрачають час на повторення роботи, яка вже існує, налагодження агентів, яких вони не бачать, або перебудову робочих процесів, які зламалися, оскільки хтось покинув компанію, а їхній особистий обліковий запис AI пішов з ними.

Фронтір — це середовище, а не модель

Увага галузі фіксується на можливостях моделі. Більші вікна контексту. Краще розуміння. Багатомодальні входи. Все це має значення. Але для більшості команд, які намагаються виконувати роботу,瓶нець не в моделі. Це середовище, в якому модель працює.

Чи може команда бачити, що відбувається? Чи можуть вони контролювати, що воно доступає? Чи можуть вони спільно використовувати те, що воно виробляє? Чи можуть вони довіряти, що воно працює з правильними даними та правильними обмеженнями?

Це інфраструктурні питання, а не питання моделі. І вони будуть тим, що відокремить організації, які отримують реальну, тривалу цінність від AI, від тих, які просто додають ще один шар тіньових ІТ.

Фронтір не в будівництві розумніших моделей. Це будівництво середовищ, в яких розумні моделі можуть насправді бути довіреними для роботи.

Марсель Фоларон є співзасновником CoChat, де він створює керовані робочі простори штучного інтелекту для команд. Він провів минуле десятиліття, працюючи на перетині командної співпраці, автоматизації та управління підприємствами.