Connect with us

Антон Онуфрієнко, виконавчий директор Devart – Серія інтерв’ю

Інтерв’ю

Антон Онуфрієнко, виконавчий директор Devart – Серія інтерв’ю

mm

Антон Онуфрієнко, виконавчий директор Devart, є технологічним керівником і оператором з глибоким досвідом у сфері розвитку програмних бізнесів, зростання доходів та керівництва великими міжфункціональними командами в сфері SaaS, корпоративного програмного забезпечення та фінансових послуг. На протяженні своєї кар’єри він перейшов від будівництва організацій продажів та запуску стартапів до нагляду за повними операціями з прибутком та збитком для великих бізнес-підрозділів, включаючи найбільший підрозділ Devart з більш ніж 130 співробітниками. До того, як стати виконавчим директором, він обіймав посаду головного директора з доходів Devart та голови відділу продажів, де він керував стратегією виходу на ринок, трансформацією ціноутворення та міжнародними ініціативами зростання. Він також є генеральним директором TMetric, платформи для відстеження часу та розрахунку прибутковості, яка допомагає сервісно-орієнтованим бізнесам отримувати оперативну ясність.

Devart – це програмна компанія, що спеціалізується на розробці баз даних, з’єднань з даними, інтеграції та інструментів продуктивності для розробників, адміністраторів баз даних, аналітиків та корпоративних команд. Заснована у 1997 році, компанія найбільш відома своєю серією інструментів управління базами даних dbForge, які підтримують основні системи баз даних, включаючи SQL Server, MySQL, Oracle та PostgreSQL. Devart також розробляє рішення для з’єднання з даними, такі як ODBC, ADO.NET, Python та Delphi-конектори, поряд з Skyvia, своєю безкодовою платформою для інтеграції даних у хмарі для ETL, автоматизації, резервного копіювання та оркестрування робочих процесів. Компанія обслуговує понад 500 000 користувачів у світі, включаючи велику частку організацій Fortune 100, і все більше зосереджується на інтеграції можливостей штучного інтелекту в свої продукти за допомогою інструментів, таких як dbForge AI Assistant, який допомагає розробникам генерувати, оптимізувати, виправляти та пояснювати запити SQL за допомогою природної мови.

Ви перейшли від будівництва та керівництва командами продажів до управління повними операціями з прибутком та збитком та тепер керуєте найбільшим бізнес-підрозділом Devart. Як це сприяло вашому підходу до інтеграції штучного інтелекту в стратегію продукту та процеси прийняття рішень у великих масштабах?

Продажі навчили мене вимірювати ROI всіх речей. Перейшовши на посаду головного директора з доходів, я розширив цю дисципліну на всі функції. Керівництво підрозділом змусило мене застосовувати це до самого штучного інтелекту.

Я підходжу до штучного інтелекту практично. Це не означає, що я сумніваюсь: три з чотирьох наших продуктів для 2026 року є штучно-інтелектуальними. Але я вважаю, що гіперbolізування заважає справжнім, тривалим результатам.

Є мем, який зараз поширюється і підводить підсумок того, де індустрія часто помиляється. Компанії міняють підписку SaaS за 400 доларів на саморобні інструменти, які коштують 1000 доларів на місяць за плату за API і потребують постійних виправлень. Це не справжня зміна, а просто дорогий показ.

Урок, який я вивів у сфері продажів, простий: кожна ініціатива повинна окупитися, або вона помре. Я керую нашим впровадженням штучного інтелекту так само, як раніше керував територією продажів. Ясна гіпотеза ROI для кожного робочого процесу, трихвильовий запуск та задокументований вплив до масштабування.

Наша мета – до кінця 2028 року більше ніж удвоїти наш дохід на одного співробітника. Ви не закриєте цю прогалину, наймаючи нових співробітників. Ви закриєте її, змінивши вигляд роботи, а штучний інтелект – це єдиний реальний механізм для цього.

Мій фільтр для кожної ініціативи штучного інтелекту, внутрішньої чи продукту, такий самий: яку міру має значення, хто платить за це, і як ми знаємо, що це спрацювало? Все, що не відповідає цим трьом запитанням, не належить у виробництво. Вартість помилки в цьому випадку швидко зростає, і більшість компаній дізнаються про це дорогим шляхом.

Devart побудувала сильну репутацію навколо інструментів баз даних та продуктивності розробників. Як ви впроваджуєте штучний інтелект у ці продукти таким чином, щоб доставляти справжню цінність, а не поверхневу автоматизацію?

Наші користувачі – це серйозні технічні спеціалісти: адміністратори баз даних, старші інженери, архітекти даних. Вони виявляють поверхневу автоматизацію за секунди і обурюються, коли їм продають маркетингові іграшки, видавані за інновації. Два роки тому, коли гіперболізування штучного інтелекту досягло піку, і конкуренти поспішали прикріпити чат-панелі до кожного елементу інтерфейсу, спокуса слідувати за ними була реальною. Я бачив цю схему раніше, у мобільних технологіях, у хмарі, у низькому коді, і я відмовився повторити це.

Дисципліна була простою: цінність клієнта на першому місці. Будування функцій штучного інтелекту, яких ніхто не просив, які не доставляють справжньої цінності, – це найгірше можливе використання обмежених інженерних ресурсів. Це особливо вірно, коли ваша аудиторія може відразу ж виявити різницю.

Що змінилося у 2026 році, так це те, що штучний інтелект перейшов від гіперболізування до справжньої технічної революції. Пропуск між тим, що ці системи могли робити у 2023 році, і тим, що вони можуть робити сьогодні, не є інкрементним. Це зовсім інша категорія можливостей. Ми тепер можемо вирішувати проблеми, які раніше були справжньо нерозв’язними: безпечний доступ до даних підприємства для агентів штучного інтелекту, контекстна інтелект баз даних всередині середовища розробника, і автономний бізнес-аналіз, який не потребує окремого аналітика.

Ці продукти існують лише тому, що штучний інтелект зробив основну проблему розв’язною. Це той рівень, до якого ми себе змушujeme: справжній продукт штучного інтелекту – це той, з якого видалення шару штучного інтелекту розбиває продукт. Індустрія вже два роки називає чат-панелі “продуктами штучного інтелекту”. Це функції, а не продукти.

Ми витратили більше часу, бо хотіли зробити все правильно. Наступні дванадцять місяців покажуть, чи окупилася ця дисципліна.

Штучний інтелект усе частіше пише, оптимізує та виправляє код. Як ви бачите, як це змінить роль розробників, які працюють з базами даних за найближчі кілька років?

Цінність знання синтаксису SQL швидко зникає. Якщо штучний інтелект може згенерувати складний багатотаблицьний JOIN за секунди та визначити відсутні індекси з логів за хвилини, то цінність інженера більше не полягає в наборі SQL. Ця частина роботи стає комодитизованою.

Але ось критична нюанс, яку апологети повної автоматизації завжди пропускають. Помилка штучного інтелекту на фронтенді – це неправильно розташований кнопка, яку можна оновити. Помилка штучного інтелекту в базі даних – це видалений продакшн-оточення, витік даних або транзакційна зупинка всього бізнесу.

Бази даних містять стан. Вони не пробачають галюцинації.

Ця асиметрія повністю змінює роль. За наступні два-три роки розробники баз даних та адміністратори баз даних еволюціонують від програмістів у архітектори та аудитори. Їхня основна робота зсувається у трьох напрямках:

  • Проектування надійних архітектур, про які штучний інтелект не може самостійно судити через відсутність бізнес-контексту.
  • Встановлення жорстких обмежень та політики безпеки для агентів штучного інтелекту, які торкаються продакшн-систем.
  • Перегляд та аудит коду, згенерованого машинами, до того, як він потрапить до бази даних.

Ментальна модель, до якої я постійно повертаюсь: інженери будуть керувати арміями помічників штучного інтелекту. Інструменти, такі як dbForge, повинні еволюціонувати з традиційних середовищ розробки у центри командування та аудиту. Робота стає менше пов’язаною з ручним набором SQL та більше з переглядом того, що генерує штучний інтелект, валідациєю та забезпечення кордонів, які штучний інтелект не може безпечно перетнути.

Професійна можливість тут значна. Розробники, які підвищують рівень до архітектури та нагляду, помножать свою ринкову вартість. Вони стають незамінним шаром між продуктивністю штучного інтелекту та безпекою виробництва. Преміум на експертизу баз даних не зникає; він зсувається у бік проектування, керування та суджень, яким штучний інтелект не може самостійно займатися.

Які найбільші обмеження поточних інструментів штучного інтелекту у управлінні базами даних сьогодні, і де ви бачите найбільш значущі прориви?

Поточний штучний інтелект усе ще застряг у поверхневій автоматизації. Генерування базового запиту SELECT або шаблонного коду вже не вражає. Більша проблема полягає в тому, що більшість систем штучного інтелекту усе ще поводяться як сліпі друкарі, а не як системні архітектори. Вони можуть генерувати синтаксис, але не真正ньо розуміють середовище, в якому вони працюють. Справжній прорив відбувається, коли штучний інтелект починає розуміти контекст, залежності, стан та бізнес-логіку разом.

Наразі я бачу три основні обмеження, які утримують штучний інтелект у середовищі баз даних.

По-перше, це проблема контексту. Великі мовні моделі можуть бачити схеми, DDL, імена стовпців, але вони не真正ньо розуміють плани виконання, фрагментацію індексів, шаблони розподілу даних чи справжню бізнес-логіку за даними. Без цього глибшого розуміння багато порад з оптимізації стають статистичними здогадами, видаваними за експертизу.

По-друге, це проблема галюцинацій, а підприємства мають майже нульову толерантність до цього на рівні баз даних. Галюцинаційний JOIN може сповільнити продакшн-системи. Неправильний UPDATE може видалити критичні записи. На цьому рівні навіть малі помилки стають дуже дорогими дуже швидко.

Третя проблема – це безпека та керування. Жодна серйозна організація не буде вставляти продакшн-схему чи особисті дані у публічний інструмент штучного інтелекту без сильних гарантій щодо ізоляції даних та контролю. До тих пір, поки виробники не розв’яжуть цю проблему належним чином, впровадження штучного інтелекту у регульовані галузі буде обмеженим.

Значущі прориви будуть тоді, коли штучний інтелект перейде від генерації синтаксису до функціонування як фонового архітектора чи аналітика.

Одна частина цього – семантичний шар: перехід від сутих імен таблиць до справжнього бізнес-значення. Не просто “таблиця_користувачів”, а розуміння концепцій, таких як групи клієнтів, ризик відходу, або тенденції LTV у третьому кварталі.

Інша зміна полягає в тому, що штучний інтелект буде діяти як старший адміністратор баз даних на фоні. Постійно аналізуючи робочі навантаження, визначаючи вузькі місця, пропонуючи індекси, виявляючи ризиковані запити та ловлячи проблеми до того, як системи виjdуть з ладу.

Тоді є машинно-машинні операції, де автономні агенти моніторять навантаження баз даних, тестують стратегії оптимізації в ізольованих середовищах та розгортають покращення під наглядом людини.

Ці розробки сформують наступні п’ять років інструментарію баз даних.

Від вашого досвіду керівництва доходами та стратегією виходу на ринок, як штучний інтелект змінює цінові моделі, упаковку продуктів та придбання клієнтів у програмних компаніях?

Традиційна книга виходу на ринок зламана. Ми бачимо це у своїх цифрах та по всьому сектору інструментів розробників.

Смерть класичної аквізиції. Незважаючи на значні покращення рейтингів наших продуктів у результатах пошуку у 2026 році, ми стикаємося з реальністю нуль-кліків. Пошук штучного інтелекту доставляє відповіді прямо на сторінці результатів та позбавляє сайти трафіку. Сильні рейтинги вже не переводяться у ліди так, як це було навіть два роки тому.

П’ять років тому сильна стратегія контенту була достатньою для зростання. Сьогодні це мінімальне значення. LLM-і зважують силу бренду, позитивні згадки та щільність спільноти при формуванні відповідей. Якщо ваш бренд не видимий та не довіряється, системи штучного інтелекту перестають його консистентно підтримувати. Ви не тільки втрачаєте трафік; ви зникаєте з процесу покупки повністю. Ще гірше, весь ринок панікує у рекламних оголошеннях, що підвищує CPC до абсурдних рівнів та тихо знищує економіку більшості компаній SaaS.

Ця зміна особливо сильно вдаряє по традиційним компаніям інструментів розробників. Канали аквізиції, що базуються на SEO, які фінансували покоління B2B SaaS, швидко втрачають ефективність. Хтось, хто все ще покладається на них як на основний механізм зростання, повинен активно будувати альтернативи прямо зараз: розподіл у екосистемі, спільноту та партнерства.

Еволюція ціноутворення: від місць до PLG 3.0. Ми вступаємо в наступну фазу PLG. Цінове утворення на основі кількості місць починає розбиватися, коли один агент штучного інтелекту може виконувати роботу кількох працівників. У такому середовищі стягування за кількість працівників перестає мати сенс. Компанії, які не перепакуватимуть продукти навколо цінності, а не кількості працівників, будуть втрачати MRR протягом наступних 24 місяців.

Наступний крок – PLG 3.0: момент, коли автономний агент штучного інтелекту, а не людина, оцінює, тестиє та купує програмне забезпечення підприємства. Масове впровадження цього шаблону ще за кілька років, але архітектура продуктів та цінове утворення для машини-клієнта – це завдання 2026 року, а не 2028.

Багато організацій борються з переходом від експериментів зі штучним інтелектом до справжнього виробничого впливу. Які ключові фактори визначають, чи успішно ініціативи штучного інтелекту?

Більшість функцій штучного інтелекту провалюються ще до того, як будуть побудовані. Вони провалюються в кімнаті, де хтось говорить: “нам потрібно штучний інтелект у цьому продукті”, не тому, що користувачі про це просили, а тому, що рада хоче історію штучного інтелекту, або маркетинг вважає, що це привабить нову аудиторію. Це оригінальний гріх більшості ініціатив штучного інтелекту, і це формує все, що відбувається далі.

Я постійно бачу ті самі помилки, які повторюються в компаніях, які борються з переходом штучного інтелекту від експериментів до справжнього виробничого впливу.

Перша помилка полягає в тому, що будуються функції штучного інтелекту, яких ніхто не просив. Як тільки функція штучного інтелекту призначена без справжньої потреби користувача, команда працює у зворотному напрямку від технології до винаходу випадку використання. Результат передбачуваний: чат-панель, прикріплена до існуючого інтерфейсу, автозаповнення, яке заважає, або кнопка “підсумувати”, яка видає гірший результат, ніж той, який міг написати користувач. Ці функції виходять, отримують прес-реліз, та тихо недосягають прогнозів щодо впровадження. Глибша шкода полягає в тому, що вони споживають інженерні ресурси, які мали бути спрямовані на функції, які користувачі真正ньо просили.

Друга проблема полягає в тому, що команди сильно недооцінюють різницю між чистими даними демо та справжнім виробничим даними. Демо штучного інтелекту працюють на чистих, відібраних прикладах. Виробництво працює на справжньому хаосі клієнтських даних: дублікати, відсутні поля, десять різних способів написати те саме ім’я продукту, п’ятнадцять років спадкових особливостей та налаштувань. Модель, яка досягає вражаючої точності під час оцінки, може сильно погіршитися на живих даних, та більшість команд не виявляють цього до тих пір, поки користувачі не починають скаржитися. Вартість цього відкриття у довірі до виробництва майже незворотна.

Інша поширена точка провалу – це дослідження користувачів. Стандартні інтерв’ю з продуктом не працюють для функцій штучного інтелекту. Користувачі не можуть артикулювати, чого вони хочуть від штучного інтелекту, тому що вони не знають, що можливе. Запит “чи будуть ви використовувати штучний інтелект для X?” отримує ввічливі позитивні відповіді, які не мають передбачувальної цінності для впровадження. Ефективне дослідження продукту штучного інтелекту вимагає демонстрації прототипів, спостереження за справжнім використанням та вимірювання того, чи повертаються користувачі після того, як новизна зникає. Маленька кількість продукційних команд перебудувала свою дослідницьку практику для цього. Вони все ще працюють за плейбуками 2019 року на проблеми 2026 року.

І, нарешті, багато компаній вимірюють активність штучного інтелекту, а не вплив на бізнес. “Двісті осіб використали функцію штучного інтелекту цього тижня” – це метрика впровадження, а не метрика впливу. Справжній вплив – це скорочення циклу часу, покращення якості, генерування доходу чи видалення витрат. Якщо ви не можете провести пряму лінію від функції штучного інтелекту до числа у звіті про прибуток та збиток, у вас немає впливу на виробництво. У вас є дорогий актив.

Є п’ятий фактор, який стає дедалі більш критичним і якого більшість продукційних команд повністю пропускає.

Сумісність та шлях побудови без штучного інтелекту. Значуща частина клієнтів у сфері фінансів, охорони здоров’я, уряду, оборони та права працюють під політикою, яка забороняє або обмежує функції штучного інтелекту у програмному забезпеченні постачальників. Якщо ваш продукт тісно пов’язує штучний інтелект у основний досвід без можливості його вимкнути чи обійти, ви не розширюєте свою аудиторію, додаючи штучний інтелект. Ви втрачете сегмент своєї існуючої аудиторії.

Це саме проблема, яку ми розв’язуємо з допомогою з’єднання штучного інтелекту. Команди з сумісності у регульованих галузях не мають нічого проти самого штучного інтелекту. Вони мають сумніви щодо виходу даних за межі їхньої периметру. Рішенням не є видалення штучного інтелекту; це надання тим організаціям архітектури штучного інтелекту, яка відповідає їхнім обмеженням. Це причина, чому з’єднання штучного інтелекту поставляється як на-premise: можливість штучного інтелекту залишається, дані ніколи не покидають інфраструктуру клієнта, а закупівля проходить перевірку у першому раунді, а не у третьому.

Команди, які це роблять правильно, проектують сумісність з дня першого. Команди, які це роблять неправильно, виявляють проблему під час перевірки закупівлі, коли угоду вже втрачено.

Devart працює у декількох екосистемах баз даних. Як штучний інтелект може допомогти спростити зростаючу складність управління даними у різних платформах?

Біль від справжній. Типова компанія Fortune 500 одночасно використовує вісім до дванадцяти різних двигунів баз даних: спадковий Oracle для фінансів, PostgreSQL для нових сервісів, SQL Server для операцій, Snowflake або BigQuery для аналітики, та все частіше векторний магазин для ембеддінгів. Кожен має свій діалект, своє інструментарій, свою систему керування. Розробник, який приєднується до цього середовища, може витратити три місяці лише на вивчення того, де дані живуть та хто має право їх торкатися.

Штучний інтелект не розв’язує цю складність сам по собі. Він посилює той контекст, який йому дають. Вісім не пов’язаних баз даних з відсутнім єдиним метаданими створюють вісім не пов’язаних наборів мілких пропозицій. Це саме режим провалу, який ми бачимо у більшості корпоративних впроваджень штучного інтелекту на стеках.

Опортунітет полягає у шарі контексту, який лежить між агентами штучного інтелекту та базами даних. Шар, який говорить з усіма ними, нормалізує метадані, забезпечує єдині політики керування та відкриває чистий інтерфейс MCP, щоб будь-який агент штучного інтелекту, будь то Claude, GPT чи внутрішня модель, працював по всьому майну з консистентними правилами.

Це архітектура, до якої ми рухаємося з допомогою з’єднання штучного інтелекту: сервер MCP на-premise з підтримкою кількох баз даних, семантичний шар, який захоплює бізнес-визначення один раз замість того, щоб примусити кожного агента штучного інтелекту його переучувати, рольове керування доступом на рівні операції SQL та повні журнали аудиту.

Спрощення не є безкоштовним. Хтось все одно повинен змоделювати семантичний шар та встановити політику. Але ця робота відбувається один раз, а не багаторазово для кожного агента штучного інтелекту.

Ви керували великими міжфункціональними командами. Як штучний інтелект змінює внутрішню співпрацю та процеси прийняття рішень між продуктом, інженерією, маркетингом та продажами?

Більшість міжфункціональної тертя була просто люди, які чекали інформації від інших команд. Штучний інтелект знімає це тертя швидше, ніж будь-яка керівна структура.

Зміни є практичними та негайними.

У продукті та інженерії: продукт-менеджер задає питання бази даних у звичайних бізнес-термінах, “яка відмінність LTV між нашими трьома основними тарифними планами?”, та отримує діючу відповідь на місці, замість того, щоб подавати тикет до аналітиків та чекати три дні.

У маркетингу та даних: аналіз когорт відбувається в лінії, а не через чергу запитів. Маркетинг-менеджер задає питання, отримує числа та будує кампанію, все в одному ранковому сеансі.

У продажах та інженерії: технічні відповіді для клієнтів вже не потребують організації дзвінка з старшим інженером. Представник продажів отримує технічну відповідь у реальному часі, та цикл угоди стискається.

Рішення рухаються у розмову, а не у наступне засідання. Шаблон “повісті мені про це пізніше” помирає. Засідання скорочуються, оскільки штучний інтелект обробляє попередні матеріали та підсумки, які раніше займали першу половину кожного сесії.

Це стиснення тертя примусово змушує глибшу зміну керування.

Кожна компанія заявляє про результат-орієнтованість. Подивіться під капот, та більшість все ще працюють на проксі-метриках: пункти історії, рядки коду, закриті тикети, години, відпрацьовані. Ми використовували активність як проксі для цінності, оскільки справжня цінність була важкою для вимірювання. Штучний інтелект знімає цю проксі назавжди. Коли агент може написати 10 000 рядків коду чи закрити 500 підтримних тикетів за хвилину, вимірювання активності стає небезпечно оманливим.

Ми рухаємося явно до Справжньої Результат-Орієнтованої Керування, де ефективність вимірюється суворо виходом та судженням. Жорстко у практиці, оскільки більшість систем керування не побудовані для цього. Люди, які раніше ховалися за високою активністю, стають видимими негайно, та керування повинно бути готовим діяти на основі цієї видимості.

Структурна наслідування – плоскі організаційні схеми. Шари координації та передачі інформації стискаються. Організації, які адаптуються найшвидше, будуть працювати з меншою кількістю людей на вищому рівні впливу.

З ростом штучного інтелекту та інструментів без коду, чи рухаємося ми до майбутнього, де управління базами даних стане доступним для нектехнічних користувачів?

Є небезпечна плутанина в індустрії зараз. Люди ставлять малий проект бази даних та корпоративну спадкову базу даних на одному рівні. Вони не рівні.

Для малих зелених проектів демократизація вже тут. Я особисто побудував маленькі програми з нуля без глибоких знань управління базами даних. Якщо ваша вся схема поміщається у контекстне вікно LLM, штучний інтелект працює як магія. Громадські розробники, які будують внутрішні інструменти на малому рівні, будуть справжньою та зростаючою категорією.

Реальність підприємства зовсім інша. Масштабні спадкові бази даних стикаються з тією самою проблемою, що й масштабні монолітні кодові бази: стіною контексту. Ви не можете помістити п’ятнадцять років недокументованої еволюції схеми, залежностей між базами даних та налаштувань тригерів у промпт. Коли штучний інтелект втрачає контекст на великій базі даних, галюцинації не погіршуються плавно. Вони множаться експоненційно.

Ризик, який піддискутується, – це фальшива впевненість у масштабі. Інтерфейси природної мови є унікально хорошими у видачі правдоподібних, але тонко неправильних відповідей. Якщо запит SQL містить синтаксичну помилку, ви отримуєте повідомлення про помилку. Якщо інтерфейс природної мови неправильно тлумачить “активних клієнтів” через те, що ваші дані мають шість різних визначень активності, ви отримуєте число. Число виглядає нормально. Воно може бути неправильним на 30%. Користувач не має жодного способу знати.

Тому ні, управління корпоративними базами даних не стане ігровим полем для нектехнічних користувачів.

Громадський адміністратор баз даних – це міф у масштабі.

Майбутнє належить експертним архітекторам даних, які використовують професійні інструменти для мостування прогалини контексту та побудови інфраструктури, яка дозволяє штучному інтелекту працювати безпечно зверху.

Структурне рішення – семантичний шар: контрольований словник, де бізнес-визначення фіксовані один раз та повторно використовуються у кожній взаємодії штучного інтелекту. Це центральна архітектура, яку ми будуємо у Insightis. Без неї доступність стає зобов’язанням.

Оглядаючи вперед, який повинен бути “родний для штучного інтелекту” інструментарій розробника, та як команди повинні починати підготовку до цього переходу сьогодні?

Інструментарій, родний для штучного інтелекту, – це не чат-бот, прикріплений до середовища розробки. Більшість того, що зараз ринковується як “родний для штучного інтелекту”, – це інтерфейс чату плюс модель автозаповнення. Це мінімальне значення, а не пункт призначення.

Для мене справжній інструментарій, родний для штучного інтелекту, потребує трьох речей.

По-перше, штучний інтелект потребує глибокого контексту. Він повинен розуміти ваш кодову базу, інфраструктуру, історичні рішення та середовище даних безперервно, а не тільки через вставлені у вікно чату промпти. Більшість поточних інструментів провалюють цей тест. Їх контекст скидається з кожною сесією, та користувач платить вартість його перебудови постійно.

По-друге, інструменти повинні спілкуватися один з одним належним чином. Ваше середовище розробки повинно говорити з вашою базою даних, база даних повинна говорити з вашим стеком спостереження, а CI/CD повинна говорити з вашим оглядачем штучного інтелекту тощо. Протокол контексту моделі стає стандартним шаром тут, з 97 мільйонами завантажень SDK на місяць у першому кварталі 2026 року, у порівнянні з 100 000 у кінці 2024 року. Це 970-кратне збільшення за п’ятнадцять місяців та найстрімкіший кривий прийняття, який я бачив у інфраструктурі розробника.

По-третє, продукційний рівень штучного інтелекту вимагає серйозних гарантій безпеки. Перегляд радіуса ураження перед руйнівними операціями. Аналіз залежностей. Автоматичні плани роллбеку. Журнали аудиту за замовчуванням. Штучний інтелект без цих речей підходить для прототипів, але небезпечний у виробництві.

Як підготуватися, конкретно.

Перевірте свій стек проти цих трьох компонентів. Чи кожен інструмент експонує API та MCP? Чи він говорить з іншими, чи сидить у силозі? Чи має він контролі безпеки? Інструменти, які провалюють два з трьох, – це короткострокові активи.

Побудуйте інфраструктуру контексту зараз. Документуйте схему, бізнес-визначення та архітектурні рішення у форматах, які можна прочитати машиною. Багатий контекст не будується за квартал. Команди, чиї інструменти штучного інтелекту мають його у 2027 році, – це ті, які документують сьогодні.

Запустіть штучний інтелект у виробництво, перш ніж ви вважатимете, що готові. Команди, які чекають на офіційну “стратегію штучного інтелекту”, перш ніж випустити, будуть на十八 місяців позаду команд, які вже вчаться на справжніх виробничих помилках. Виберіть низькоризиковий випадок. Випустіть. Будуйте м’язи.

Команди, які приймають ці рішення сьогодні, визначатимуть наступне десятиліття того, як будується програмне забезпечення. Віконечко вузьке, та воно зараз відкрито.

Дякую за велике інтерв’ю, читачам, які бажають дізнатися більше, слід відвідати Devart.

Антуан є видним лідером і засновником Unite.AI, який рухає невпинною пристрастю до формування та просування майбутнього штучного інтелекту та робототехніки. Як серійний підприємець, він вважає, що штучний інтелект буде таким же революційним для суспільства, як і електрика, і часто захоплюється потенціалом деструктивних технологій та AGI.

Як футуролог, він присвячений дослідженню того, як ці інновації сформують наш світ. Крім того, він є засновником Securities.io, платформи, орієнтованої на інвестування в передові технології, які переінакшують майбутнє та змінюють цілі сектори.