Connect with us

Intervjuer

Amit Sharma, CEO og grunnlegger av CData – Intervju-serie

mm

Amit Sharma, CEO og grunnlegger av CData Software, er en teknisk leder som har ledet CData fra tidlige startup-faser til å bli en global leder innen datakobling og -integrering. Med en karriere som omfatter roller som programvareingeniør i Infosys og Elixar, teknisk arkitekt i /n Software, og senere CTO i CData, har han bygget dypt ekspertise innen bedriftsdata tilgang og -infrastruktur. Siden han ble CEO i 2014, har han ledet CData’s misjon om å forenkle hvordan organisasjoner kobler, integrerer og utnytter data på tvers av systemer, og hjulpet med å posisjonere selskapet som en grunnleggende lag av moderne data bevegelse.

CData Software er en ledende leverandør av data tilgang og -koblingsløsninger. Deres selvbetjeningsdata produkter og -koblingsplattformer leverer universell tilgang til live data på tvers av hundrevis av vidt brukte lokale og sky-applikasjoner. Millioner av brukere verden over avhenger av CData for å støtte avansert analyse, akselerere sky-adoptsjon og bygge mer sammenkoblede, data-drevne organisasjoner. Designet for å være forbruker-vennlig for alle brukere, tilgjengelig innen alle applikasjoner og skalerbart for bedrifter av alle størrelser, omdefinerer CData hvordan bedrifter tilgår og bruker data.

Du startet din karriere i India hos Infosys og gikk senere over til U.S. bedriftsprogramvare. Hva var den tidlige læringen fra denne fasen som fortsatt former hvordan du leder i dag?

Min tid hos Infosys ga meg tidlig eksponering for kravene til stor-skala bedriftsteknologi — kompleksiteten, behovet for pålitelighet og hvordan store organisasjoner nærmer seg tekniske problemer. Det dannet en dypt respekt for struktur og bedrifts-grad kvalitet. Men da jeg gikk over til en U.S. startup, oppdaget jeg at jeg trivdes med hastighet, fleksibilitet og evnen til å ha direkte innvirkning. I dag guider denne doble bakgrunnen hvordan jeg leder CData Software: Jeg insisterer på bedrifts-grad standarder og robusthet, samtidig som jeg fremmer en lean, rask-bevegelig kultur som setter pris på enkelhet, virkelig-verden anvendelighet og rask gjennomføring.

Etter mer enn et tiår som CEO av CData, hva var den viktigste endringen i tankesett eller tilnærming som var nødvendig for å skalle selskapet fra tidlige dager til en global bedrift?

Den største endringen for meg var å gå fra å tenke som en bygger av teknologi til å tenke som en bygger av en organisasjon. I de tidlige dagene var fokuset mitt nesten utelukkende på produktet; å sikre at det var elegant, pålitelig og løste virkelige problemer. Da CData skallet, måtte jeg lære at god programvare alene ikke er nok; du trenger gode mennesker, sterke ledere og prosesser som skalerer uten å bremses. Det betydde å investere tidligere i rekruttering, å gi teamene fullmakt og bygge gjentakbare systemer på tvers av salg, støtte og drift, samtidig som jeg beskyttet vår ingeniørkultur. Tankesett-endringen var å innse at jobben min ikke bare var å lage god teknologi, men å skape en miljø hvor god teknologi kunne bygges konsekvent av en voksende globalt team.

CData har lenge fokusert på “å forenkle tilgangen til alle data, overalt”. Hvordan har denne misjonen utviklet seg når industrien går dyptere inn i AI-naturlige applikasjoner?

Fra begynnelsen har vår misjon på CData vært å gjøre data universelt tilgjengelig ved å bruke familiære, standardiserte grensesnitt, fordi vi trodde at den største flasken til innovasjon ikke var lagring eller beregning, men tilgang. Denne grunnleggende ideen har ikke endret seg, men konteksten har. Da organisasjoner gikk fra analyse til sky og nå inn i AI, har kostnaden av fragmentert, inkonsistent data tilgang bare økt. Hva som har utviklet seg er vår ansvar: det er ikke lenger bare om å koble applikasjoner til data, men om å sikre at data er pålitelig, sanntids og brukbar på tvers av stadig mer komplekse og distribuerte miljøer. I AI-æraen er tilgang alene ikke nok. Data må være umiddelbart brukbar uten uker med tilpasset ingeniørarbeid.

Da AI-naturlige applikasjoner blir normen, har vår misjon utvidet seg til å inkludere å gjøre data AI-klar som standard. Det betyr å aktivere konsistent semantikk, høy-ytelseskobling, styrings-bevisst tilgang og sanntids-integrering på tvers av strukturerte og SaaS-datakilder, så modeller og agenter kan arbeide med fersk, pålitelig informasjon, ikke skjøre punkt-integreringer eller stille kopier. I praktiske termer er vi fokusert på å eliminere friksjonen mellom hvor data bor og hvor AI-systemer opererer, så team kan gå fra eksperimentering til produksjon raskere. Vi ser oss selv ikke bare som en koblingsleverandør, men som en grunnleggende data-lag for AI-drevne bedrifter som stille driver systemene som gjør intelligente applikasjoner mulige.

Med generativ AI akselererende, hva betyr “AI-klar data” virkelig for deg, og hvor ser du at organisasjoner misforstår denne ideen mest?

For meg betyr “AI-klar data” data som er tilgjengelig, pålitelig, aktuell og forståelig for både mennesker og maskiner uten lag av tilpasset rørledning. Det er ikke bare om å flytte data inn i en sjø eller lagre. Det er om å sikre at systemer, modeller og agenter kan konsistent tilgå riktig data på riktig tidspunkt gjennom standardiserte, styrede grensesnitt. AI-klarhet avhenger mindre av hvor data lagres og mer av om det kan oppdages, spørres, tillits og integreres i sanntid. Uten denne grunnlaget, ender selv de mest avanserte modellene med å operere på ubrukelig eller utdatert informasjon.

Hvor jeg ser at organisasjoner misforstår konseptet, er i antagelsen at sentralisering automatisk betyr klargjøring. Team ofte tror at når data er konsolidert inn i en enkelt plattform, er de “AI-klare”, når i virkeligheten de bare har skapt en ny silo. Andre overinvestere i verktøy uten å adresse datakvalitet, semantikk og kobling, de uglamorøse problemene som gjør eller ødelegger virkelige AI-systemer. AI feiler ikke på grunn av modeller; det feiler på grunn av rotete, utilgjengelige eller utdaterte data. Organisasjonene som vil vinne, er de som behandler data-klarhet som en operativ disiplin, ikke et engangs-prosjekt.

Din nye forskning, The State of AI Data Connectivity: 2026 Outlook, viser at bare 6% av AI-ledere tror at deres data-infrastruktur er fullstendig klar for AI. Hvorfor tror du at klarhetsgapet er så stort, og hva forteller dette oss om industrien nåværende trajektorie?

Gapet er så stort fordi de fleste organisasjoner investerte i å samle og lagre data lenge før de investerte i å gjøre dem brukbare for AI. Over det siste tiåret har selskaper bygget sjøer, lagre og rørledninger, men de bygde sjelden en samlet tilgangslag som sikrer at data er konsistent, sanntids og tilgjengelig på tvers av systemer. Da ledere begynner å deployere AI i virkelige arbeidsflyter, oppdager de at deres underliggende infrastruktur ikke kan støtte hastigheten, skalaen eller påliteligheten AI krever. 6%-tallet reflekterer ikke en mangel på ambisjon, men snarere virkeligheten at AI eksponerer svakheter som alltid har vært der, men ikke betydde så mye i tradisjonell analyse.

Hva data forteller oss om industrien, er at vi er tidlig i AI-adoptions-kurven, ikke sent. Organisasjoner eksperimenterer aggressivt på applikasjonslaget, men de innser nå at suksess avhenger av å modernisere deres data-grunnlag under. Vi går inn i en korrektur-fase hvor fokuset skifter fra flotte piloter til operativ klargjøring — standardisert tilgang, styrt integrering og sanntids-kobling. Vinnerne vil ikke være selskapene som bygger de fleste bevis for konsept, men de som moderniserer deres data-infrastruktur raskt nok til å flytte disse eksperimentene inn i produksjon i skala.

Funnene viser også at 71% av AI-teamene bruker mer enn en kvart av sin tid på data-rørledning. Hva del av dette arbeidet er faktisk strategisk og ikke bare teknisk gjeld?

En viss mengde “data-rørledning” er absolutt strategisk når det handler om å skape varig tilgang til data gjennom standardiserte grensesnitt og å designe for skalerbarhet og styring fra starten. Å investere i konsistent kobling, delt semantikk og pålitelige integreringsmønster er grunnleggende arbeid som betaler dividender på tvers av alle applikasjoner og modeller som kommer senere. Problemet er at de fleste team ikke gjør denne type rørledning. De bygger enkelt-tilfeller, skriver skjøre koblinger og lapper integreringer som bare løser et problem en gang. Det er teknisk gjeld forkledt som fremgang.

Hva som er strategisk, er alt som reduserer fremtidig friksjon: å eliminere tilpasset kode til fordel for standarder, bygge gjenbrukbare data-tjenester og koble systemer på måter som skalerer på tvers av team og brukstilfeller. Når rørledning blir usynlig og gjenbrukbar, stopper det å være en avgift på AI-team og blir en muliggjører. Det virkelige målet er ikke å bruke mindre tid på data. Det er å slutte å bruke tid på de samme data-problemene om og om igjen.

En slående datapunkt fra rapporten er at 46% av bedriftene nå krever sanntids-tilgang til seks eller flere datakilder for en enkelt AI-brukstilfelle. Reflekterer dette hva du ser hos kundene, og hva gjør denne type kobling så vanskelig?

Ja, det stemmer overens med hva vi ser hos kundene. Moderne AI-brukstilfeller, enten det er prediktiv analyse, anbefalingsmotorer eller autonome arbeidsflyter, avhenger sjelden av ett enkelt system. Bedrifter ofte trenger å kombinere ERP, CRM, SaaS-applikasjoner, strømmingsplattformer og legacy-databaser for å generere meningsfulle innsikter. Utfordringen er ikke bare antall kilder; det er variasjonen, forskjellige protokoller, formater og oppdateringsfrekvenser, og forventningen om at denne dataen skal være tilgjengelig i sanntid for AI-modeller å forbruke.

Hva som gjør denne type kobling så vanskelig, er at tradisjonelle integrerings-tilnærminger aldri var designet for skalaen, hastigheten og påliteligheten AI krever. Enkelt-tilfeller og batch-rørledninger kan bare ikke holde pace. Sanntids-tilgang krever standardiserte, styrede grensesnitt, konsistent semantikk på tvers av systemer og overvåking for å sikre datakvalitet og -tilgjengelighet. Uten denne grunnlaget, bruker team mer tid på å slukke rørlednings-brann enn å bygge AI-løsninger, noe som bremser innovasjon og introduserer risiko. Organisasjonene som lykkes, er de som behandler kobling som en strategisk evne, ikke bare en teknisk syssop.

Rapporten understreker semantisk konsistens, kontekst og kobling som avgjørende karakteristika for moden AI-data-infrastruktur. Hvordan bør organisasjoner tenke om å sekvensere disse prioritetene?

Når organisasjoner tenker om å sekvensere, bør de starte med kobling. Hvis data ikke er pålitelig tilgjengelig på tvers av systemer, blir alt annet irrelevant. AI-modeller kan ikke lære fra det de ikke kan nå. Å etablere standardiserte, styrede koblinger på tvers av alle kritiske datakilder legger grunnlaget for alt som følger. Uten denne laget, ender team med å bygge skjøre, enkelt-tilfeller som skaper mer arbeid nedover linjen.

Når kobling er på plass, blir semantisk konsistens den neste prioriten. Data trenger en felles språk så informasjon fra flere kilder kan tolkes riktig og kombineres meningsfullt. Kontekst følger naturlig: å forstå ikke bare verdier, men deres mening innenfor bedriftsprosessen, tid og relasjoner, sikrer at AI-modeller kan gjøre nøyaktige, handlebare prediksjoner. Å behandle disse elementene som en strukturert sekvens — kobling først, semantikk andre, kontekst tredje — tillater organisasjoner å bygge en AI-klar data-infrastruktur som skalerer og støtter pålitelig, produksjons-klar intelligens.

AI-naturlige programvare-leverandører krever nå omtrent tre ganger flere eksterne integrasjoner enn tradisjonelle leverandører. Hva driver denne økende gapet, og hva avslører dette om hvor programvaren er på vei?

Gapet øker på grunn av AI-selv naturen: AI-naturlige applikasjoner trives på diverse, sanntids-data fra flere kilder. I motsetning til tradisjonell programvare, som ofte opererer innenfor ett enkelt system eller suite, trenger AI-modeller å inngå, korrelere og analysere informasjon på tvers av ERP-systemer, CRM-plattformer, SaaS-applikasjoner, strømmingskilder og mer. Hver integrasjon er essensiell for å gi AI nok kontekst og dekning til å generere nøyaktige prediksjoner, anbefalinger eller automatiserte handlinger.

Dette trendet avslører at programvaren beveger seg fra isolerte applikasjoner mot sammenkoblede, intelligente økosystemer. Vinnerne vil ikke være produktene som fungerer godt på egen hånd. De vil være plattformene som kan åpne og integrere data hvor som helst den bor. I praktiske termer betyr det at kobling, standardisering og sanntids-integrering ikke lenger er noen gang gode å ha. De er grunnleggende evner for AI-naturlig programvare å levere virkelig verdi.

Ser fremover fem år, hva tror du vil bli den mest signifikante flasken til AI-suksess — kobling, sanntids-rørledninger, semantisk modellering, styring eller noe helt annet?

Ser fremover, tror jeg at styring og sikkerhet vil bli den mest signifikante flasken til AI-suksess. Mens kobling og sanntids-rørledninger fortsatt er grunnleggende, har organisasjoner raskt innsett at ustyrt AI er uholdbar og potensielt farlig. Da AI beveger seg fra eksperimentering til produksjon og begynner å påvirke kritiske forretningsbeslutninger, multipliseres risikoen for bias, overholdelse-brudd, data-lekkasje og operasjonelle feil eksponentielt.

Utfordringen er ikke lenger bare om å flytte data; det er om å flytte riktig data, med riktig kontroll, til riktig systemer, på en sporbar og overvåkbar måte. Organisasjoner som ikke innfører sterke styrings-rammer og sikkerhetsprotokoller fra starten, vil møte økende regulatorisk press, omdømmesskade og til slutt, AI-systemer de ikke kan stole på eller skalle. Vi ser allerede tidlige tegn: bedrifter som tørr å deployere AI fordi de ikke kan garantere data-avstamning, tilgangskontroll eller overholdelse med utviklende reguleringer.

De mest suksessfulle organisasjonene om fem år vil være de som behandler styring og sikkerhet ikke som ettertanke, men som kjerne-aktiverende av AI. Ja, du trenger kobling og sanntids-rørledninger for å få data flytende; men uten styring og sikkerhet på plass, blir dataen en belastning, ikke en verdi. Fremtiden for AI handler ikke bare om hastighet eller skala; det handler om tillit, ansvar og ansvarlig deployering på hver lag av data-staken.

Takk for det flotte intervjuet, lesere som ønsker å lære mer bør besøke CData Software.

Antoine er en visjonær leder og grunnleggende partner i Unite.AI, drevet av en urokkelig lidenskap for å forme og fremme fremtiden for AI og robotikk. En seriegründer, han tror at AI vil være like disruptiv for samfunnet som elektrisitet, og blir ofte tatt i å tale om potensialet for disruptiv teknologi og AGI.
Som en futurist, er han dedikert til å utforske hvordan disse innovasjonene vil forme vår verden. I tillegg er han grunnleggeren av Securities.io, en plattform som fokuserer på å investere i banebrytende teknologier som omdefinerer fremtiden og omformer hele sektorer.