Connect with us

Rozhovory

Amit Sharma, CEO a zakladatel CData – Interview Series

mm

Amit Sharma, CEO a zakladatel CData Software, je technologický manažer, který vedl CData od její počáteční fáze startupu k tomu, aby se stala globálním lídrem v oblasti datové konektivity a integrace. S kariérou, která zahrnuje role softwarového inženýra v Infosys a Elixar, technického architekta v /n Software a později CTO v CData, vybudoval hluboké odborné znalosti v oblasti podnikového přístupu k datům a infrastruktury. Od roku 2014, kdy se stal CEO, vedl misi CData, aby zjednodušil, jak organizace připojují, integrují a využívají data napříč systémy, což pomohlo společnosti získat pozici základního vrstvy moderního pohybu dat.

CData Software je přední poskytovatel řešení pro přístup k datům a konektivitu. Jeho samoobslužné datové produkty a platformy pro konektivitu poskytují univerzální přístup k živým datům napříč stovkami široce používaných aplikací v místních i cloudových prostředích. Miliony uživatelů po celém světě spoléhají na CData na podporu pokročilé analýzy, urychlení adopce cloudu a budování více propojených, datově řízených organizací. Navrženo tak, aby bylo spotřebiteli dostupné pro každého uživatele, přístupné v rámci libovolné aplikace a škálovatelné pro podniky všech velikostí, CData předefinuje, jak podniky přistupují a využívají data.

Začali jste svou kariéru v Indii v Infosys a později jste přešli do amerického podnikového softwaru. Jaká raná lekce z té fáze stále formuje, jak vedete dnes?

Můj čas v Infosys mi dal ranou expozici požadavkům velkého podnikového technologického řešení — složitosti, potřebě spolehlivosti a tomu, jak velké organizace přistupují k technickým problémům. To vytvořilo hluboký respekt ke struktuře a podnikové kvalitě. Ale když jsem přešel do amerického startupu, zjistil jsem, že prosperuji ve rychlosti, agilitě a schopnosti mít přímý dopad. Dnes tato dvojí pozadí směruje, jak vedu CData Software: trvám na podnikových standardech a robustnosti, zatímco pěstuji štíhlou, rychle se pohybující kulturu, která si cení jednoduchosti, reálné využitelnosti a rychlého provedení.

Po více než desetiletí jako CEO CData, jaká změna v myšlení nebo přístupu byla nejvýznamnější při škálování společnosti z jejích raných dnů do globálního podniku?

Největší změna pro mě byla přechod od myšlení jako stavitele technologie k myšlení jako stavitele organizace. V raných dnech byla moje pozornost téměř výhradně zaměřena na produkt; zajistit, aby byl elegantní, spolehlivý a řešil skutečné problémy. Jak CData škálovala, musel jsem se naučit, že skvělé softwarové řešení samo o sobě nestačí; potřebujete skvělé lidi, silné lídry a procesy, které škálovat bez zpomalení. To znamenalo investovat dříve do náboru, zmocňování týmů a budování opakovaných systémů napříč prodejem, podporou a operacemi, zatímco stále chránil naše inženýrskou kulturu. Změna v myšlení spočívala v tom, že si uvědomil, že moje práce nebyla jen udělat skvělé technologie, ale vytvořit prostředí, ve kterém lze budovat skvělé technologie konzistentně rostoucím globálním týmem.

CData se dlouhodobě zaměřuje na „zjednodušení přístupu k jakémukoli datu, kdekoli“. Jak se tato mise vyvinula, když se průmysl pohybuje hlouběji do aplikací AI?

Od začátku byla naše mise v CData udělat data univerzálně dostupná pomocí známých, standardizovaných rozhraní, protože jsme věřili, že největší překážkou inovace nebyla úložiště nebo výpočet, ale přístup. Tato základní myšlenka se nezměnila, ale kontext ano. Jak organizace přešly z analýzy do cloudu a nyní do AI, náklady na fragmentovaný, nekonzistentní přístup k datům se pouze zvýšily. Co se vyvinulo, je naše odpovědnost: již to není jen o připojování aplikací k datům, ale o zajištění, že data jsou důvěryhodná, v reálném čase a využitelná napříč stále složitějšími a distribuovanými prostředími. V éře AI není přístup sám o sobě dostatečný. Data musí být okamžitě využitelná bez týdnů vlastního inženýrství.

Jak se AI-nativní aplikace stávají normou, naše mise se rozšířila o to, aby data byla AI-připravená ve výchozím stavu. To znamená umožnění konzistentní sémantiky, vysoce výkonné konektivity, přístupu vědomého řízení a reálné integrace napříč strukturovanými a SaaS zdroji dat, aby modely a agenti mohli pracovat se свежými, spolehlivými informacemi, ne křehkými bodovými integracemi nebo zastaralými kopiemi. V praktických termínech se zaměřujeme na eliminaci tření mezi místem, kde data žijí, a místem, kde AI systémy fungují, aby týmy mohly přecházet z experimentů do produkce rychleji. Vidíme se ne jako poskytovatele konektivity, ale jako základovou datovou vrstvu pro AI poháněné podniky, tiše pohánějící systémy, které dělají inteligentní aplikace možné.

S urychlováním generativní AI, co „AI-připravená data“ pro vás znamenají, a kde vidíte organizace nejvíce nesprávně interpretovat tuto myšlenku?

Pro mě „AI-připravená data“ znamenají data, která jsou přístupná, spolehlivá, aktuální a srozumitelná pro lidi i stroje bez vrstev vlastního potrubí. Není to jen o přesunu dat do jezera nebo skladů. Je to o zajištění, že systémy, modely a agenti mohou konzistentně přistupovat k správným datům ve správný čas prostřednictvím standardizovaných, řízených rozhraní. Připravenost AI závisí méně na tom, kde jsou data uložena, a více na tom, zda lze data objevit, dotázat, důvěřovat a integrovat v reálném čase. Bez této základny se i ty nej pokročilejší modely stanou neúplnými nebo zastaralými informacemi.

Kde vidím organizace nesprávně interpretovat tuto koncepci, je v předpokladu, že centralizace automaticky znamená připravenost. Týmy často věří, že jakmile jsou data konsolidována do jedné platformy, jsou „AI-připravená“, když ve skutečnosti vytvořili novou izolaci. Jiní přeinvestují do nástrojů bez řešení kvality dat, sémantiky a konektivity, nešikovných problémů, které dělají nebo ničí skutečné AI systémy. AI ne selže kvůli modelům; selže kvůli špinavým, nepřístupným nebo zastaralým datům. Organizace, které budou vyhrávat, jsou ty, které považují datovou připravenost za provozní disciplínu, ne za jednorázový migrační projekt.

Vaše nová studie, The State of AI Data Connectivity: 2026 Outlook, ukazuje, že pouze 6 % lídrů AI věří, že jejich datová infrastruktura je plně připravena pro AI. Proč si myslíte, že mezera připravenosti je tak velká, a co to říká o současné trajektorii průmyslu?

Mezera je tak velká, protože většina organizací investovala do shromažďování a ukládání dat dlouho předtím, než investovala do toho, aby je učinila využitelnými pro AI. V posledních deseti letech společnosti postavily jezera, sklady a potrubí, ale zřídka postavily ucelenou přístupovou vrstvu, která zajišťuje, že data jsou konzistentní, v reálném čase a dostupná napříč systémy. Jak organizace nasazují AI do skutečných pracovních postupů, zjistí, že jejich podkladová infrastruktura nemůže podporovat rychlost, rozsah nebo spolehlivost, kterou AI vyžaduje. Číslo 6 % neodráží nedostatek ambicí, ale realitu, že AI odhaluje slabiny, které tam vždy byly, ale dříve tolik nezáležely.

Co data říkají o průmyslu, je, že jsme na počátku křivky adopce AI, ne na konci. Organizace agresivně experimentují na úrovni aplikací, ale nyní si uvědomují, že úspěch závisí na modernizaci své datové základny pod ní. Vstupujeme do korektivní fáze, kde se zaměření posouvá od pilotních projektů na provozní připravenost — standardizovaný přístup, řízená integrace a konektivita v reálném čase. Vítězi nebudou společnosti, které postaví nejvíce pilotních projektů, ale ty, které modernizují svou datovou infrastrukturu dostatečně rychle, aby mohly přenést tyto experimenty do produkce ve velkém měřítku.

Zjištění také ukazují, že 71 % týmů AI tráví více než čtvrtinou svého času na „datovém potrubí“. Jakou část této práce považujete za skutečně strategickou, spíše než jen technický dluh?

Některá část „datového potrubí“ je absolutně strategická, když se jedná o vytváření trvanlivého přístupu k datům prostřednictvím standardizovaných rozhraní a navrhování pro škálovatelnost a řízení od začátku. Investice do konzistentní konektivity, sdílených sémantik a spolehlivých integračních vzorců je základním pracím, které přinášejí dividendy napříč každou aplikací a modelem, který přijde později. Problém je v tom, že většina týmů nedělá tento druh potrubí. Přestavují one-off potrubí, píší křehké konektory a opravují integrace, které řeší problém pouze jednou. To je technický dluh maskovaný jako pokrok.

Co je strategické, je cokoliv, co snižuje budoucí tření: eliminace vlastního kódu ve prospěch standardů, budování opakovaně využitelných datových služeb a připojování systémů způsobem, který škáluje napříč týmy a případy použití. Když se potrubí stane neviditelným a opakovaně využitelným, přestává být daní z AI týmů a stává se enablerem. Skutečným cílem není strávit méně času na data. Je to přestat trávit čas na stejných datových problémech znovu a znovu.

Jedna pozoruhodná datová bod z zprávy je, že 46 % podniků nyní vyžaduje přístup v reálném čase k šesti nebo více zdrojům dat pro jeden případ použití AI. Odráží se to v tom, co vidíte u zákazníků, a co dělá tuto úroveň konektivity tak obtížnou?

Ano, to se shoduje s tím, co vidíme u zákazníků. Moderní případy použití AI, ať už se jedná o prediktivní analýzu, doporučující motory nebo autonomní pracovní postupy, zřídka závisí na jediném systému. Podniky často potřebují kombinovat ERP, CRM, SaaS aplikace, streamovací platformy a legacy databáze, aby generovaly smysluplné informace. Výzva není jen v počtu zdrojů; je to rozmanitost, různé protokoly, formáty a aktualizační frekvence, a očekávání, že tato data budou dostupná v reálném čase pro AI modely.

Co dělá tuto úroveň konektivity obtížnou, je, že tradiční integrační přístupy nebyly navrženy pro rozsah, rychlost a spolehlivost, kterou AI vyžaduje. One-off konektory a batch potrubí prostě nemohou držet krok. Skutečný přístup v reálném čase vyžaduje standardizovaná, spravovaná rozhraní, konzistentní sémantiku napříč systémy a monitorování, aby se zajistila kvalita a dostupnost dat. Bez této základny týmy tráví více času hašením potrubí než budováním AI řešení, což zpomaluje inovace a zavádí riziko. Organizace, které uspějí, jsou ty, které považují konektivitu za strategickou schopnost, ne jen technickou úlohu.

Zpráva zdůrazňuje sémantickou konzistenci, kontext a konektivitu jako definující charakteristiky zralé AI datové infrastruktury. Jak by organizace měly uvažovat o sekvencování těchto priorit?

Když uvažujete o sekvencování, organizace by měly začít s konektivitou. Pokud data nejsou spolehlivě dostupná napříč systémy, vše ostatní se stává irelevantním. AI modely nemohou se učit z toho, co nemohou dosáhnout. Zavedení standardizovaných, řízených připojení napříč všemi kritickými zdroji dat vytváří základ pro vše, co následuje. Bez této vrstvy týmy skončí budováním křehkých, one-off potrubí, která vytvářejí více práce později.

Jakmile je konektivita na místě, sémantická konzistence se stává další prioritou. Data potřebují společný jazyk, aby informace z více zdrojů mohly být interpretovány správně a kombinovány smysluplně. Kontext přirozeně následuje: porozumění nejen hodnotám, ale jejich významu v rámci obchodního procesu, časování a vztahů zajišťuje, že AI modely mohou dělat přesné, akční předpovědi. Léčení těchto prvků jako strukturované sekvence — konektivita první, sémantika druhá, kontext třetí — umožňuje organizacím budovat AI-připravenou datovou infrastrukturu, která škáluje a podporuje spolehlivé, produkční inteligence.

AI-nativní softwaroví poskytovatelé nyní vyžadují přibližně třikrát více externích integrací než tradiční dodavatelé. Co pohání tuto rozšiřující se mezery, a co to odhaluje o tom, kam se software ubírá?
Rozšiřující se mezera je poháněna samotnou povahou AI: AI-nativní aplikace prosperují na rozmanitých, reálných datech z více zdrojů. Na rozdíl od tradičního softwaru, který často funguje v rámci jednoho systému nebo sady, AI modely potřebují ingestovat, korelovat a analyzovat informace napříč ERP systémy, CRM platformami, SaaS aplikacemi, streamovacími zdroji a více. Každá integrace je esenciální pro poskytnutí AI dostatečného kontextu a pokrytí, aby generovaly přesné předpovědi, doporučení nebo automatizované akce.

Tento trend odhaluje, že software se pohybuje z izolovaných aplikací směrem k propojeným, inteligentním ekosystémům. Vítězi nebudou produkty, které fungují dobře samy o sobě. Budou to platformy, které mohou bezproblémově přistupovat a integrovat data, kdekoliv žijí. V praktických termínech to znamená, že konektivita, standardizace a reálná integrace nejsou již pouze hezkými funkcemi. Staly se základními schopnostmi pro AI-nativní software, aby dodávaly skutečnou hodnotu.

Pohledem do pěti let, co podle vás bude nejvýznamnější překážkou pro úspěch AI — konektivita, reálné potrubí, sémantické modelování, řízení, nebo něco úplně jiného?

Pohledem do pěti let, jsem přesvědčen, že řízení a bezpečnost se stanou nejvýznamnější překážkou pro úspěch AI. Zatímco konektivita a reálné potrubí zůstávají základními — AI modely mohou být pouze tak efektivní, jako data, ke kterým mohou přistupovat — organizace rychle chápou, že neřízená AI je neudržitelná a potenciálně nebezpečná. Jak AI přechází z experimentů do produkce a začíná ovlivňovat kritické obchodní rozhodnutí, rizika zkreslení, porušení shody, úniku dat a provozních chyb se mnohonásobně zvyšují.

Výzva není jen o přesunu dat; je o přesunu správných dat, se správnými kontrolami, do správných systémů, způsobem, který je stopovatelný a auditovatelný. Organizace, které selžou při implementaci silných rámců řízení a bezpečnostních protokolů od začátku, budou čelit rostoucímu regulatornímu tlaku, reputačnímu riziku a nakonec AI systémům, kterým nelze důvěřovat nebo škálovat. Již vidíme rané signály: podniky, které jsou váhavé nasadit AI, protože nemohou zajistit datovou genezi, přístupové kontroly nebo shodu s vyvíjejícími se nařízeními.

Nejpodařenější organizace za pět let budou ty, které považují řízení a bezpečnost za základní enablery AI, ne jen jako následné myšlenky. Ano, potřebujete konektivitu a reálné potrubí, aby data tekla — ale bez řízení a bezpečnosti na místě, tato data se stanou zátěží, ne aktivem. Budoucnost AI není jen o rychlosti nebo rozsahu; je o důvěře, odpovědnosti a zodpovědném nasazení na každé úrovni datové základny.

Antoine je vizionářský líder a zakládající partner Unite.AI, poháněný neotřesitelnou vášní pro formování a propagaci budoucnosti AI a robotiky. Jako sériový podnikatel věří, že AI bude mít na společnost stejně disruptivní vliv jako elektřina, a často je chycen při tom, jak hovoří o potenciálu disruptivních technologií a AGI. Jako futurist, je zasvěcen prozkoumání toho, jak tyto inovace budou formovat náš svět. Kromě toho je zakladatelem Securities.io, platformy zaměřené na investice do špičkových technologií, které předefinovávají budoucnost a mění celé sektory.