Інтерв’ю
Аміт Шарма, CEO і засновник CData – Серія інтерв’ю

Аміт Шарма, CEO і засновник CData Software, – це технічний виконавець, який керував CData від ранньої фази стартапу до того, як вона стала глобальним лідером у сфері з’єднання даних та інтеграції. З кар’єрою, що охоплює ролі інженера-програміста в Infosys і Elixar, технічного архітектора в /n Software, а пізніше CTO в CData, він створив глибокий досвід у сфері корпоративного доступу до даних та інфраструктури. Відтоді, як він став CEO у 2014 році, він очолює місію CData щодо спрощення того, як організації підключаються, інтегрують та використовують дані в різних системах, що допомогло компанії зайняти позицію фундаментального шару сучасного руху даних.
CData Software є провідним постачальником рішень для доступу до даних та з’єднання. Її самобслуживчі продукти даних та платформи з’єднання забезпечують універсальний доступ до даних у режимі реального часу серед сотень широко використовуваних програм на місцях та в хмарі. Мільйони користувачів по всьому світу покладаються на CData для підтримки просунутих аналітичних інструментів, прискорення прийняття хмари та створення більш з’єднаних, орієнтованих на дані організацій. Розроблені для того, щоб бути споживаними будь-яким користувачем, доступними в будь-якій програмі та масштабованими для підприємств будь-якого розміру, CData переозначає те, як підприємства отримують доступ та використовують дані.
Ви розпочали свою кар’єру в Індії в Infosys, а потім перейшли до американського корпоративного програмного забезпечення. Яка рання урок з того періоду все ще формує те, як ви керуєте сьогодні?
Мій час в Infosys дав мені ранній досвід вимог великомасштабної корпоративної технології – складності, необхідності надійності та того, як великі організації підходять до технічних проблем. Це сформувало глибокий шаноб до структури та якості підприємства. Але коли я перейшов до американського стартапу, я виявив, що мені подобається швидкість, гнучкість та можливість зробити прямий вплив. Сьогодні цей подвійний досвід керує тим, як я керую CData Software: я наполягаю на стандартах підприємства та надійності, одночасно створюючи культуру, яка цінує простоту, реальну придатність та швидке виконання.
Після більш ніж десяти років на посаді CEO CData, яка зміна у свідомості або підході була найбільш важливою для масштабування компанії з її раннього етапу в глобальне підприємство?
Найбільшою зміною для мене було переходити від думання як будівельника технологій до думання як будівельника організації. На ранньому етапі моя увага була майже повністю зосереджена на продукті; я хотів, щоб він був елегантним, надійним та вирішував реальні проблеми. Коли CData розширилася, мені довелося зрозуміти, що хороше програмне забезпечення само по собі недостатньо; вам потрібні хороші люди, сильні лідери та процеси, які масштабуються без сповільнення вас. Це означало інвестування раніше в найм, розширення повноважень команд та створення повторюваних систем у сфері продажів, підтримки та операцій, одночасно захищаючи нашу інженерну культуру. Зміна свідомості полягала в тому, що моя робота полягала не лише у створенні хорошого технологічного продукту, а у створенні середовища, в якому можна було б створити добрий технологічний продукт послідовно зростаючою глобальною командою.
CData довгий час зосереджувалася на “спрощенні доступу до будь-яких даних, в будь-якому місці”. Як змінилася ця місія з тим, як галузь рухається глибше в додатки, родові для штучного інтелекту?
З початку наша місія в CData полягала в тому, щоб зробити дані універсально доступними за допомогою знайомих, стандартизованих інтерфейсів, оскільки ми вважали, що найбільшим瓶шею для інновацій не було сховище або обчислення, а саме доступ. Ця основна ідея не змінилася, але контекст змінився. Коли організації перейшли від аналітики до хмари та тепер до штучного інтелекту, вартість фрагментованого, несумісного доступу до даних лише зросла. Що змінилося, так це наша відповідальність: тепер це не лише про підключення програм до даних, а про те, щоб дані були довіреними, актуальними та придатними для використання в дедалі більш складних та розподілених середовищах. У епоху штучного інтелекту доступ сам по собі недостатньо. Дані повинні бути негайно придатними для використання без тижнів спеціальної інженерії.
Коли додатки, родові для штучного інтелекту, стають нормою, наша місія розширилася до того, щоб зробити дані готовими для штучного інтелекту за замовчуванням. Це означає забезпечення послідовних семантик, високопродуктивного з’єднання, доступу, оснащеного урядуванням, та реального з’єднання серед структурованих та джерел даних SaaS, щоб моделі та агенти могли працювати зі свіжими, надійними даними, а не з хрупкими точками з’єднання чи застарілими копіями. У практичному сенсі ми зосереджені на ліквідації тертя між тим, де дані живуть, та тим, де системи штучного інтелекту працюють, щоб команди могли швидше перейти від експериментів до виробництва. Ми бачимо себе не лише як постачальника з’єднання, а як фундаментальний шар даних для підприємств, родових для штучного інтелекту, які тихо забезпечують роботу систем, що роблять можливими інтелектуальні додатки.
З прискоренням генерації штучного інтелекту, що означає для вас “дані, готові для штучного інтелекту”, і де ви бачите організації, які найбільш неправильно тлумачать цю ідею?
Для мене “дані, готові для штучного інтелекту” означають дані, які є доступними, надійними, актуальними та зрозумілими як для людей, так і для машин без шарів спеціальної інженерії. Це не лише про переміщення даних у озеро чи сховища. Це про те, щоб системи, моделі та агенти могли послідовно отримувати доступ до правильних даних у правильний час через стандартизовані, керовані інтерфейси. Готовність до штучного інтелекту залежить менше від того, де дані зберігаються, і більше від того, чи можуть вони бути виявлені, запитані, довірені та інтегровані в режимі реального часу. Без цієї основи навіть найрозsutніші моделі працюють на неповних або застарілих даних.
Де я бачу організації, які найбільш неправильно тлумачать цю концепцію, так це в тому, що вони припускають, що централізація автоматично означає готовність. Команди часто вважають, що як тільки дані консолідовані в одну платформу, вони “готові до штучного інтелекту”, коли насправді вони створили новий сіло. Інші надмірно інвестують у інструменти без вирішення проблем якості даних, семантики та з’єднання, які роблять або розбивають реальні системи штучного інтелекту. Штучний інтелект не провалюється через моделі; він провалюється через неорганізовані, недоступні або застарілі дані. Організації, які переможуть, будуть тими, які behandють готовність даних як оперативну дисципліну, а не як проект одноразової міграції.
Ваша нова робота, “Стан з’єднання даних штучного інтелекту: прогноз 2026 року”, показує, що лише 6% лідерів штучного інтелекту вважають, що їх інфраструктура даних повністю готова до штучного інтелекту. Чому ви вважаєте, що розрив у готовності такий великий, і що це говорить про поточний напрямок галузі?
Розрив такий великий, оскільки більшість організацій інвестували у збирання та зберігання даних ще до того, як інвестували у те, щоб зробити їх придатними для використання в штучному інтелекті. За останні десять років компанії побудували озера, сховища та трубопроводи, але вони рідко будували послідовний шар доступу, який забезпечує, що дані є сумісними, актуальними та доступними серед систем. Коли лідери починають розгортати штучний інтелект у реальних робочих процесах, вони виявляють, що їхня основна інфраструктура не може підтримувати швидкість, масштаб чи надійність, яку вимагає штучний інтелект. Цифра 6% не відображає відсутність амбіцій, а радше реальність того, що штучний інтелект розкриває слабкості, які завжди були там, але не мали такого великого значення в традиційній аналітиці.
Що дані говорять про галузь, так це те, що ми находимося на ранній стадії кривої прийняття штучного інтелекту, а не на пізній. Організації агресивно експериментують на рівні додатків, але вони зараз розуміють, що успіх залежить від модернізації своєї даних基础. Ми вступаємо в корективну фазу, в якій увага зсувається від пілотних проектів до оперативної готовності – стандартизованого доступу, керованого з’єднання та реального з’єднання. Переможцями не будуть компанії, які будують найбільше прототипів, а ті, які модернізують свою інфраструктуру даних досить швидко, щоб перемістити ці експерименти у виробництво у великому масштабі.
Дослідження також показує, що 71% команд штучного інтелекту витрачають понад чверть свого часу на “інженерію даних”. Яка частина цієї роботи насправді стратегічна, а не просто технічний борг?
Деяка кількість “інженерії даних” абсолютно стратегічна, коли вона полягає у створенні тривалого доступу до даних через стандартизовані інтерфейси та проектуванні для масштабованості та урядування з самого початку. Інвестування у послідовне з’єднання, спільну семантику та надійні моделі з’єднання – це фундаментальна робота, яка приносить дивіденди у всіх додатках та моделях, які приходять пізніше. Проблема полягає в тому, що більшість команд не роблять такого роду “інженерії”. Вони перебудовують одноразові трубопроводи, пишуть хрупкі конектори та заплатують з’єднання, які вирішують проблему лише один раз. Це технічний борг, маскующийся під прогрес.
Що стратегічне, так це все, що зменшує майбутнє тертя: ліквідація спеціального коду на користь стандартів, створення повторно використовуваних сервісів даних та з’єднання систем способами, які масштабуються серед команд та випадків використання. Коли “інженерія” стає невидимою та повторюваною, вона перестає бути податком на команди штучного інтелекту та стає засобом. Реальна мета не полягає в тому, щоб витрачати менше часу на дані. Це зупинити витрачання часу на ті самі проблеми даних знову і знову.
Одна вражаюча статистика з доповіді полягає в тому, що 46% підприємств тепер вимагають реального доступу до шести або більше джерел даних для одного випадку використання штучного інтелекту. Чи відповідає це тому, що ви бачите серед клієнтів, і що робить такий рівень з’єднання таким складним?
Так, це відповідає тому, що ми бачимо серед клієнтів. Сучасні випадки використання штучного інтелекту, як передбачувальна аналітика, рекомендаційні двигуни чи автономні робочі потоки, рідко залежать від однієї системи. Підприємства часто потребують об’єднання даних з ERP-систем, CRM-платформ, додатків SaaS, потокових платформ та баз даних legacy, щоб генерувати значущі ідеї.
Проблема не полягає лише у кількості джерел; це різноманіття, різні протоколи, формати та частоти оновлення, а також очікування, що ці дані будуть доступні в режимі реального часу для моделей штучного інтелекту. Що робить такий рівень з’єднання складним, так це те, що традиційні підходи до інтеграції ніколи не були розроблені для масштабу, швидкості та надійності, яку вимагає штучний інтелект. Одноразові конектори та трубопроводи пакетної обробки просто не можуть впоратися. Реальний доступ вимагає стандартизованих, керованих інтерфейсів, послідовних семантик серед систем та моніторингу, щоб забезпечити якість даних та доступність. Без цієї основи команди витрачають більше часу на гасіння пожеж у трубопроводах, ніж на будівництво рішень штучного інтелекту, що сповільнює інновації та вводить ризик. Організації, які переможуть, будуть тими, які behandють з’єднання як стратегічну здатність, а не просто технічну роботу.
Доповідь підкреслює послідовну семантику, контекст та з’єднання як визначальні характеристики зрілої інфраструктури даних штучного інтелекту. Як організації повинні думати про послідовність цих пріоритетів?
Коли організації думають про послідовність, вони повинні починати зі з’єднання. Якщо дані не доступні надійно серед систем, все інше стає нерелевантним. Моделі штучного інтелекту не можуть навчатися тому, чого вони не можуть досягти. Створення стандартизованих, керованих з’єднань серед усіх критичних джерел даних закладає основу для всього, що слідує. Без цього шару команди будують хрупкі, одноразові трубопроводи, які створюють більше роботи в майбутньому.
Як тільки з’єднання встановлено, послідовна семантика стає наступним пріоритетом. Дані потребують спільної мови, щоб інформація з кількох джерел могла бути правильно інтерпретована та поєднана. Контекст природно слідує: розуміння не лише значень, а їхнього значення в бізнес-процесі, часі та відносинах забезпечує, що моделі штучного інтелекту можуть робити точні, діючі прогнози. Розгляд цих елементів як структурованої послідовності – з’єднання спочатку, семантика другою, контекст третьою – дозволяє організаціям будувати інфраструктуру даних, готову до штучного інтелекту, яка масштабується та підтримує надійний, готовий до виробництва інтелект.
Додатки, родові для штучного інтелекту, тепер вимагають приблизно в три рази більше зовнішніх інтеграцій, ніж традиційні постачальники. Що рухає цей розрив, і що це говорить про те, куди рухається програмне забезпечення?
Розрив викликаний самим штучним інтелектом: додатки, родові для штучного інтелекту, процвітають на різноманітних даних у режимі реального часу з кількох джерел. На відміну від традиційного програмного забезпечення, яке часто працює в одній системі або суїті, моделі штучного інтелекту потребують інгестування, кореляції та аналізу інформації з кількох джерел, таких як системи ERP, платформи CRM, додатки SaaS, потокові джерела та ін. Кожна інтеграція є суттєвою для надання штучному інтелекту достатнього контексту та покриття для генерації точних прогнозів, рекомендацій чи автоматизованих дій.
Цей тренд говорить про те, що програмне забезпечення рухається від ізольованих додатків до взаємопов’язаних, інтелектуальних екосистем. Переможцями не будуть продукти, які працюють добре самостійно. Вони будуть платформами, які можуть безшовно отримувати доступ та інтегрувати дані, де б вони не жили. У практичному сенсі це означає, що з’єднання, стандартизація та реальне з’єднання вже не є лише бажаними. Вони є фундаментальними здатностями для додатків, родових для штучного інтелекту, щоб доставляти реальну цінність.
Оглядаючи вперед на п’ять років, що, на вашу думку, стане найбільш суттєвим瓶шею для успіху штучного інтелекту – з’єднання, трубопроводи у режимі реального часу, семантичне моделювання, урядування чи щось зовсім інше?
Оглядаючи вперед, я вважаю, що управління та безпека стануть найбільш суттєвими瓶шею для успіху штучного інтелекту. Хоча з’єднання та трубопроводи у режимі реального часу залишаються фундаментальними, організації швидко розуміють, що некерований штучний інтелект є недопустимим і потенційно небезпечним. Коли штучний інтелект рухається від експериментів до виробництва та починає впливати на критичні бізнес-рішення, ризики упередженості, порушень правил, витоку даних та операційних помилок множаться експоненціально.
Проблема не полягає лише у переміщенні даних; це переміщення правильних даних, з правильними контролями, до правильних систем, у спосіб, який можна відстежувати та аудітувати. Організації, які не впровадять сильні рамки управління та протоколи безпеки з самого початку, будуть зіткнутися з зростаючим тиском регулювання, ризиком репутації та, в кінцевому підсумку, системами штучного інтелекту, яким вони не можуть довіряти чи масштабувати. Ми вже бачимо перші ознаки: підприємства, які вагаюся розгортати штучний інтелект, оскільки вони не можуть забезпечити походження даних, контроль доступу чи відповідність правилам.
Найбільш успішні організації за п’ять років будуть тими, які behandуть управління та безпеку не як післядуми, а як основні засоби штучного інтелекту. Так, вам потрібно з’єднання та трубопроводи у режимі реального часу, щоб дані рухалися; але без управління та безпеки дані стають зобов’язанням, а не активом. Майбутнє штучного інтелекту не лише про швидкість чи масштаб; це про довіру, підзвітність та відповідальну розгортання на кожному рівні стеку даних.
Дякую за велике інтерв’ю. Читачам, які бажають дізнатися більше, слід відвідати CData Software.












