Interviews
Amit Sharma, CEO og grundlægger af CData – Interviewserie

Amit Sharma, CEO og grundlægger af CData Software, er en tech-ekspert, der har guidet CData fra dens tidlige startup-fase til at blive en global leder inden for data-tilkobling og -integration. Med en karriere, der omfatter roller som software-ingeniør hos Infosys og Elixar, teknisk arkitekt hos /n Software og senere CTO hos CData, har han opbygget dyb ekspertise inden for virksomhedsdata-adgang og -infrastruktur. Siden han blev CEO i 2014, har han ledt CData’s mission om at simplificere, hvordan organisationer tilkobler, integrerer og udnytter data på tværs af systemer, hvilket har hjulpet med at positionere virksomheden som en grundlæggende lag af moderne data-bevægelse.
CData Software er en førende leverandør af data-adgangs- og tilkoblingsløsninger. Dens selvbetjening-data-produkter og tilkoblings-platforme leverer universel adgang til live-data på tværs af hundredvis af bredt anvendte on-premises- og cloud-applikationer. Millioner af brugere verden over afhænger af CData til at støtte avanceret analytics, accelerere cloud-adoptions og bygge mere sammenhængende, data-drevne organisationer. Designet til at være forbrugervenligt for enhver bruger, tilgængeligt inden for enhver applikation og skalerbart for virksomheder af alle størrelser, definerer CData om, hvordan virksomheder tilgår og bruger data.
Du startede din karriere i Indien hos Infosys og skiftede senere til U.S. enterprise software. Hvad var den tidlige lære fra den fase, der stadig former, hvordan du leder i dag?
Min tid hos Infosys gav mig tidlig indsigt i kravene til storstilede enterprise-teknologi — kompleksiteten, behovet for pålidelighed og hvordan store organisationer tilgår tekniske problemer. Det formede en dyb respekt for struktur og enterprise-klasse-kvalitet. Men da jeg skiftede til en U.S.-startup, opdagede jeg, at jeg trivedes med hastighed, fleksibilitet og evnen til at have direkte indvirkning. I dag guider den dobbelte baggrund, hvordan jeg leder CData Software: Jeg insisterer på enterprise-klasse-standarder og robusthed, samtidig med at jeg fremmer en lean, hurtig-bevægelig kultur, der værdsætter enkelhed, real-verden-anvendelighed og hurtig udførelse.
Efter mere end et årti som CEO af CData, hvilken skift i mindset eller tilgang var mest vigtig for at skala virksomheden fra dens tidlige dage til en global virksomhed?
Det største skift for mig var at skifte fra at tænke som en bygger af teknologi til at tænke som en bygger af en organisation. I de tidlige dage var mit fokus næsten udelukkende på produktet; sikre, at det var elegant, pålideligt og løste reelle problemer. Da CData skalaerede, måtte jeg lære, at god software alene ikke er nok; du behøver gode mennesker, stærke ledere og processer, der kan skalaere uden at bremse dig. Det betød, at jeg investerede tidligere i rekruttering, empowerment af hold og opbygning af gentagne systemer på tværs af salg, support og drift, samtidig med at jeg beskyttede vores ingeniør-kultur. Skiftet i mindset var at realisere, at mit job ikke kun var at lave god teknologi, men at skabe en omgang, hvor god teknologi kunne bygges konsekvent af en voksende global hold.
CData har længe fokuseret på “at simplificere adgangen til enhver data, hvor som helst”. Hvordan er den mission udviklet, da industrien bevæger sig dybere ind i AI-naturlige applikationer?
Fra begyndelsen har vores mission på CData været at gøre data universelt tilgængeligt ved hjælp af velkendte, standardiserede grænseflader, fordi vi troede, at den største flaskehals for innovation ikke var lagring eller beregning, men adgang. Den grundlæggende idé er ikke ændret, men konteksten er. Da organisationer er skiftet fra analytics til cloud og nu ind i AI, er omkostningerne ved fragmenteret, inkonsistent data-adgang kun øget. Hvad der er udviklet, er vores ansvar: Det er ikke længere kun om at tilkoble applikationer til data, men om at sikre, at data er troværdigt, real-tid og brugbart på tværs af stadig mere komplekse og distribuerede miljøer. I AI-æraen er adgang alene ikke nok. Data skal være umiddelbart brugbart uden uger med tilpasning.
Da AI-naturlige applikationer bliver normen, er vores mission udvidet til at inkludere at gøre data AI-klar som standard. Det betyder, at vi aktivt arbejder for at enable konsistent semantik, høj-ydelse-tilkobling, governance-bevidst adgang og real-tid-integration på tværs af strukturerede og SaaS-data-kilder, så modeller og agenter kan arbejde med frisk, pålidelig information, ikke brittiske punkt-integrationer eller stille kopier. I praksis fokuserer vi på at eliminere friktionen mellem, hvor data bor, og hvor AI-systemer opererer, så hold kan gå fra eksperimenter til produktion hurtigere. Vi ser os selv ikke kun som en tilkoblings-udbyder, men som et grundlæggende data-lag for AI-drevne virksomheder, der stille arbejder med at gøre intelligente applikationer mulige.
Med generativ AI, der accelererer, hvad betyder “AI-klar data” virkelig for dig, og hvor ser du, at organisationer misfortolker den idé mest?
For mig betyder “AI-klar data” data, der er tilgængeligt, pålideligt, aktuel og forståeligt for både mennesker og maskiner uden lag af tilpasning. Det handler ikke kun om at flytte data til en sø eller lager. Det handler om at sikre, at systemer, modeller og agenter kan konsekvent tilgå det rigtige data på det rigtige tidspunkt gennem standardiserede, styrede grænseflader. AI-klarhed afhænger mindre af, hvor data er gemt, og mere af, om det kan opdages, forespørges, tillides og integreres i real-tid. Uden den grundlæggelse kan selv de mest avancerede modeller kun fungere med ufuldstændig eller forældet information.
Hvor jeg ser, at organisationer misfortolker konceptet, er i antagelsen af, at centralisering automatisk betyder klarhed. Hold tror ofte, at så snart data er konsolideret til en enkelt platform, er de “AI-klare”, når virkeligheden er, at de har skabt en ny silo. Andre overinvesterer i værktøjer uden at adressere data-kvalitet, semantik og tilkobling, de uglamourøse problemer, der gør eller ødelægger reelle AI-systemer. AI fejler ikke på grund af modeller; det fejler på grund af rodet, utilgængeligt eller forældet data. De organisationer, der vinder, er de, der behandler data-klarhed som en operativ disciplin, ikke et engangsmæssigt migrationsprojekt.
Din nye forskning, The State of AI Data Connectivity: 2026 Outlook, viser, at kun 6% af AI-ledere tror, deres data-infrastruktur er fuldt klar til AI. Hvorfor tror du, at klarheds-gabet er så stort, og hvad siger det os om branchens nuværende retning?
Gabet er så stort, fordi de fleste organisationer investerede i at samle og gemme data lang tid før, de investerede i at gøre det brugbart for AI. I løbet af det sidste årti har virksomheder bygget søer, lager og pipelines, men de byggede sjældent en samlet adgangs-lag, der sikrer, at data er konsistent, real-tid og tilgængeligt på tværs af systemer. Da ledere begynder at deployere AI i reelle arbejdsprocesser, opdager de, at deres underliggende infrastruktur ikke kan understøtte hastigheden, skalaen eller pålideligheden, som AI kræver. 6%-cifren reflekterer ikke en mangel på ambition, men snarere virkeligheden, at AI afslører svagheder, der altid har været der, men ikke betød så meget i traditionel analytics.
Hvad data fortæller os om branchen er, at vi er tidligt i AI-adoptions-kurven, ikke sent. Organisationer eksperimenterer aggressivt på applikations-laget, men de er nu ved at realisere, at succes afhænger af at modernisere deres data-fundament underneath. Vi er ved at indtræde en korrektions-fase, hvor fokus skifter fra flotte pilot-projekter til operativ klarhed – standardiseret adgang, styret integration og real-tid-tilkobling. Vinderne vil ikke være de virksomheder, der bygger de fleste beviser for koncepter, men de, der moderniserer deres data-infrastruktur hurtigt nok til at flytte disse eksperimenter til produktion i skala.
Fundene viser også, at 71% af AI-hold bruger mere end en kvart af deres tid på data-rør-arbejde. I din mening, hvilken del af dette arbejde er virkelig strategisk og ikke kun teknisk gæld?
En vis mængde “data-rør-arbejde” er absolut strategisk, når det handler om at skabe varig adgang til data gennem standardiserede grænseflader og designe for skalerbarhed og governance fra starten. At investere i konsistent tilkobling, fælles semantik og pålidelig integration er grundlæggende arbejde, der giver afkast på tværs af hver applikation og model, der kommer senere. Problemet er, at de fleste hold ikke laver den slags rør-arbejde. De genopbygger en-gangs-pipelines, skriver brittelle-forbindelser og lapper integrationer, der kun løser et problem én gang. Det er teknisk gæld forklædt som fremgang.
Hvad der er strategisk, er alt, der reducerer fremtidig friktion: eliminere brug af tilpasnings-kode til fordel for standarder, bygge genbrugbare data-tjenester og tilkoble systemer på en måde, der kan skalaere på tværs af hold og brugstilfælde. Når rør-arbejde bliver usynligt og gentaget, stopper det med at være en skat på AI-hold og bliver en muliggører. Det virkelige mål er ikke at bruge mindre tid på data. Det er at stoppe med at bruge tid på de samme data-problemer om og om igen.
En slående datapunkt fra rapporten er, at 46% af virksomheder nu kræver real-tid-adgang til seks eller flere data-kilder for en enkelt AI-brugssag. Reflekterer det, hvad du ser hos kunder, og hvad gør, at denne niveau af tilkobling er så svær?
Ja, det stemmer overens med, hvad vi ser hos kunder. Moderne AI-brugssager, enten det er prædikativ analytics, anbefalings-motorer eller autonome arbejdsprocesser, afhænger sjældent kun af en enkelt system. Virksomheder har ofte brug for at kombinere ERP, CRM, SaaS-applikationer, streaming-platforme og legacy-databaser for at generere meningsfulde indsigt. Udfordringen er ikke kun antallet af kilder; det er variationen, forskellige protokoller, formater og opdaterings-hyppighed, og forventningen om, at denne data skal være tilgængelig i real-tid for AI-modeller at forbruge.
Hvad der gør denne niveau af tilkobling svær, er, at traditionelle integrations-tilgange aldrig var designet til skalaen, hastigheden og pålideligheden, som AI kræver. En-gangs-forbindelser og batch-pipelines kan simpelthen ikke følge med. Sand real-tid-adgang kræver standardiserede, styrede grænseflader, konsistent semantik på tværs af systemer og overvågning for at sikre data-kvalitet og -tilgængelighed. Uden denne grundlæggelse bruger hold mere tid på at slukke pipelines end på at bygge AI-løsninger, hvilket langsomer innovation og introducerer risiko. De organisationer, der lykkes, er de, der behandler tilkobling som en strategisk kapacitet, ikke kun et teknisk arbejde.
Rapporten understreger semantisk konsistens, kontekst og tilkobling som definerende karakteristika for modne AI-data-infrastruktur. Hvordan skal organisationer tænke om sekvensering af disse prioriteringer?
Når organisationer tænker om sekvensering, skal de starte med tilkobling. Hvis data ikke er pålideligt tilgængeligt på tværs af systemer, bliver alt andet irrelevant. AI-modeller kan ikke lære af, hvad de ikke kan nå. At etablere standardiserede, styrede forbindelser på tværs af alle kritiske data-kilder lægger grundlaget for alt, der følger. Uden denne lag er hold nødt til at bygge ømtålige, en-gangs-pipelines, der skaber mere arbejde længere nede.
Når tilkobling er på plads, bliver semantisk konsistens det næste prioritetsområde. Data har brug for en fælles sprog, så information fra multiple kilder kan fortolkes korrekt og kombineres meningsfuldt. Kontekst følger naturligt: at forstå ikke kun værdierne, men deres betydning inden for forretnings-processen, timing og relationer sikrer, at AI-modeller kan lave præcise, handlebare forudsigelser. At behandle disse elementer som en struktureret sekvens – tilkobling først, semantik andet, kontekst tredje – tillader organisationer at bygge en AI-klar data-infrastruktur, der kan skalaere og understøtte pålidelig, produktions-klar intelligens.
AI-naturlige software-udbydere kræver nu omtrent tre gange flere eksterne integrationer end traditionelle udbydere. Hvad driver denne vækst i gapet, og hvad afslører det om, hvor software er på vej?
Gapet vækster på grund af AI-selv naturen: AI-naturlige applikationer trives på diverse, real-tid-data fra multiple kilder. I modsætning til traditionel software, der ofte opererer inden for et enkelt system eller suite, har AI-modeller brug for at indtage, korrelerer og analysere information på tværs af ERP-systemer, CRM-platforme, SaaS-applikationer, streaming-kilder og mere. Hver integration er afgørende for at give AI nok kontekst og dækning til at generere præcise forudsigelser, anbefalinger eller automatiserede handlinger.
Denne tendens afslører, at software bevæger sig fra isolerede applikationer mod sammenhængende, intelligente økosystemer. Vinderne vil ikke være de produkter, der fungerer godt alene. De vil være de platforme, der kan tilgå og integrere data, hvor som helst det bor. I praksis betyder det, at tilkobling, standardisering og real-tid-integration ikke længere er nice-to-have. De er grundlæggende kapaciteter for AI-naturlig software til at levere reel værdi.
At se fremad i fem år, hvad tror du vil blive den mest betydningsfulde flaskehals for AI-succes – tilkobling, real-tid-pipelines, semantisk modellering, governance eller noget helt andet?
At se fremad tror jeg, at governance og sikkerhed vil blive den mest betydningsfulde flaskehals for AI-succes. Mens tilkobling og real-tid-pipelines stadig er grundlæggende – AI-modeller kan kun være så effektive, som data de kan tilgå – er organisationer hurtigt ved at realisere, at ungoverned AI er uholdbar og potentielt farlig. Da AI bevæger sig fra eksperimenter til produktion og begynder at påvirke kritiske forretnings-beslutninger, multiplicerer risikerne for bias, overtrædelser af compliance, data-lækage og operationelle fejl eksponentielt.
Udfordringen er ikke kun om at flytte data mere – det handler om at flytte det rigtige data, med de rigtige kontroller, til de rigtige systemer, på en sporbar og revisionssikker måde. Organisationer, der ikke indbygger stærke governance-rammer og sikkerheds-protokoller fra starten, vil stå over for voksende regulatorisk pres, reputations-risiko og ultimate, AI-systemer de ikke kan stole på eller skalaere. Vi ser allerede tidlige tegn: virksomheder, der tøver med at deployere AI, fordi de ikke kan garantere data-afstamning, adgangskontrol eller compliance med udviklende regler.
De mest succesfulde organisationer om fem år vil være de, der behandler governance og sikkerhed ikke som eftertanker, men som kerne-muliggørere af AI. Ja, du har brug for tilkobling og real-tid-pipelines for at få data til at flyde – men uden governance og sikkerhed på plads, bliver data en byrde snarere end en aktiv. Fremtiden for AI handler ikke kun om hastighed eller skala; det handler om tillid, ansvarlighed og ansvarlig deployment på hvert lag af data-stakken.
Tak for det gode interview, læsere, der ønsker at lære mere, skal besøge CData Software.












