Connect with us

Interviste

Amit Sharma, CEO e Fondatore di CData – Serie di Interviste

mm

Amit Sharma, CEO e Fondatore di CData Software, è un dirigente tecnologico che ha guidato CData dalla sua fase iniziale di startup a diventare un leader globale nella connettività e integrazione dei dati. Con una carriera che comprende ruoli di ingegnere software in Infosys e Elixar, architetto tecnico in /n Software e successivamente CTO in CData, ha costruito una profonda esperienza nell’accesso ai dati aziendali e nell’infrastruttura. Dal 2014, come CEO, ha guidato la missione di CData per semplificare il modo in cui le organizzazioni connettono, integrano e utilizzano i dati attraverso i sistemi, aiutando a posizionare l’azienda come un livello fondamentale del moderno movimento dei dati.

CData Software è un fornitore leader di soluzioni di accesso e connettività dei dati. I suoi prodotti di dati self-service e le piattaforme di connettività forniscono un accesso universale ai dati live in centinaia di applicazioni on-premises e cloud ampiamente utilizzate. Milioni di utenti in tutto il mondo si affidano a CData per supportare analisi avanzate, accelerare l’adozione del cloud e costruire organizzazioni più connesse e guidate dai dati. Progettato per essere consumato da qualsiasi utente, accessibile all’interno di qualsiasi applicazione e scalabile per aziende di tutte le dimensioni, CData sta ridefinendo il modo in cui le aziende accedono e utilizzano i dati.

Hai iniziato la tua carriera in India in Infosys e successivamente ti sei trasferito nel software aziendale statunitense. Qual è la lezione precoce di quella fase che ancora influenza il tuo modo di guidare oggi?

Il mio tempo in Infosys mi ha dato una prima esposizione alle richieste della tecnologia aziendale su larga scala – le complessità, la necessità di affidabilità e come le grandi organizzazioni affrontano i problemi tecnici. Ciò ha plasmato un profondo rispetto per la struttura e la qualità aziendale. Ma quando mi sono trasferito in uno startup statunitense, ho scoperto di prosperare nella velocità, nell’agilità e nella capacità di avere un impatto diretto. Oggi, quel background duale guida il mio modo di guidare CData Software: insisto su standard aziendali e robustezza, mentre favorisco una cultura snella e veloce che valorizza la semplicità, l’usabilità nel mondo reale e l’esecuzione rapida.

Dopo più di un decennio come CEO di CData, qual è stato il cambiamento di mentalità o approccio più importante nel far scalare l’azienda dalla sua fase iniziale a un’impresa globale?

Il cambiamento più grande per me è stato passare dal pensare come un costruttore di tecnologia a pensare come un costruttore di un’organizzazione. Nei primi giorni, la mia attenzione era quasi interamente sul prodotto; assicurarmi che fosse elegante, affidabile e risolvesse problemi reali. Mentre CData cresceva, dovevo imparare che un grande software da solo non è sufficiente; hai bisogno di grandi persone, leader forti e processi che si scalano senza rallentarti. Ciò ha significato investire prima nel recruiting, nell’abilitazione dei team e nella costruzione di sistemi ripetibili in vendita, supporto e operazioni, mentre proteggevo ancora la nostra cultura di ingegneria. Il cambiamento di mentalità è stato rendersi conto che il mio lavoro non era solo creare una grande tecnologia, ma creare un ambiente in cui una grande tecnologia potesse essere costruita costantemente da un team globale in crescita.

CData si è sempre concentrata sul “semplificare l’accesso a qualsiasi dato, ovunque”. Come è evoluta questa missione man mano che l’industria si addentra più a fondo nelle applicazioni native AI?

Fin dall’inizio, la nostra missione in CData è stata quella di rendere i dati universalmente accessibili utilizzando interfacce standardizzate e familiari, perché credevamo che il più grande collo di bottiglia per l’innovazione non fosse l’archiviazione o il calcolo, ma l’accesso. Quell’idea fondamentale non è cambiata, ma il contesto sì. Mentre le organizzazioni sono passate dall’analisi al cloud e ora alle applicazioni AI, il costo dell’accesso ai dati frammentati e inconsistenti è aumentato solo. Ciò che è evoluto è la nostra responsabilità: non è più solo una questione di connettere le applicazioni ai dati, ma assicurarsi che i dati siano affidabili, in tempo reale e utilizzabili in ambienti sempre più complessi e distribuiti.

Nell’era AI, l’accesso da solo non è sufficiente. I dati devono essere immediatamente utilizzabili senza settimane di ingegneria personalizzata.

Mentre le applicazioni native AI diventano la norma, la nostra missione si è estesa per includere la preparazione dei dati per l’AI per impostazione predefinita. Ciò significa abilitare una semantica coerente, una connettività ad alte prestazioni, un accesso consapevole della governance e un’integrazione in tempo reale attraverso fonti di dati strutturate e SaaS, in modo che i modelli e gli agenti possano lavorare con informazioni fresche e affidabili, non con integrazioni punto fragili o copie obsolete. In termini pratici, ci concentriamo sull’eliminazione dell’attrito tra dove vivono i dati e dove operano i sistemi AI, in modo che i team possano passare dall’esperimentazione alla produzione più velocemente. Ci vediamo non solo come un fornitore di connettività, ma come un livello di dati fondamentale per le aziende guidate dall’AI che alimentano silenziosamente i sistemi che rendono possibili le applicazioni intelligenti.

Con l’AI generativa che si accelera, cosa significa per te “dati pronti per l’AI” e dove vedi le organizzazioni fraintendere di più quell’idea?

Per me, “dati pronti per l’AI” significa dati che sono accessibili, affidabili, attuali e comprensibili sia per gli esseri umani che per le macchine senza strati di tubazioni personalizzate. Non si tratta solo di spostare i dati in un lago o in un magazzino. Si tratta di assicurarsi che i sistemi, i modelli e gli agenti possano accedere consistentemente ai dati giusti al momento giusto attraverso interfacce standardizzate e gestite. La prontezza per l’AI dipende meno da dove sono archiviati i dati e più dal fatto che possano essere scoperti, interrogati, considerati attendibili e integrati in tempo reale.

Dove vedo le organizzazioni fraintendere il concetto è nell’assumere che la centralizzazione equivalga automaticamente alla prontezza. I team spesso credono che una volta che i dati sono consolidati in una singola piattaforma, sono “pronti per l’AI”, quando in realtà hanno creato un nuovo silo. Altri investono eccessivamente in strumenti senza affrontare la qualità dei dati, la semantica e la connettività, i problemi non glamorosi che fanno o rompono i sistemi AI nel mondo reale. L’AI non fallisce a causa dei modelli; fallisce a causa di dati confusi, inaccessibili o obsoleti. Le organizzazioni che vinceranno sono quelle che trattano la prontezza dei dati come una disciplina operativa, non come un progetto di migrazione una tantum.

La tua nuova ricerca, The State of AI Data Connectivity: 2026 Outlook, mostra che solo il 6% dei leader AI crede che la loro infrastruttura dei dati sia completamente pronta per l’AI. Perché pensi che il divario di prontezza sia così ampio e cosa ci dice questo sulla traiettoria attuale dell’industria?

Il divario è così ampio perché la maggior parte delle organizzazioni ha investito nel raccogliere e archiviare i dati molto prima di investire nel renderli utilizzabili per l’AI. Nel corso dell’ultimo decennio, le aziende hanno costruito laghi, magazzini e pipeline, ma raramente hanno costruito uno strato di accesso coeso che garantisca che i dati siano coerenti, in tempo reale e disponibili attraverso i sistemi. Come risultato, i leader scoprono che una volta iniziano a distribuire l’AI in flussi di lavoro reali, la loro infrastruttura sottostante non può supportare la velocità, la scala o l’affidabilità che l’AI richiede. La cifra del 6% non riflette una mancanza di ambizione, ma piuttosto la realtà che l’AI espone debolezze che erano sempre presenti ma non contavano molto nell’analisi tradizionale.

Cosa ci dice questo sulla traiettoria dell’industria è che siamo all’inizio della curva di adozione dell’AI, non alla fine. Le organizzazioni stanno sperimentando aggressivamente a livello di applicazione, ma stanno ora realizzando che il successo dipende dalla modernizzazione della loro infrastruttura di dati sottostante. Stiamo entrando in una fase correttiva in cui l’attenzione si sta spostando da piloti appariscenti alla prontezza operativa – accesso standardizzato, integrazione gestita e connettività in tempo reale. I vincitori non saranno le aziende che costruiscono il maggior numero di prove di concetto, ma quelle che modernizzano la loro infrastruttura di dati abbastanza rapidamente da spostare quegli esperimenti in produzione su larga scala.

I risultati mostrano anche che il 71% dei team AI spende più di un quarto del loro tempo nella “tubazione dei dati”. Qual è la parte di questo lavoro che è veramente strategica e non solo debito tecnico?

Una certa quantità di “tubazione dei dati” è assolutamente strategica quando si tratta di creare un accesso duraturo ai dati attraverso interfacce standardizzate e progettare per la scalabilità e la governance fin dall’inizio. Investire in una connettività coerente, servizi di dati condivisi e modelli di integrazione affidabili è un lavoro fondamentale che paga dividendi in ogni applicazione e modello successivo. Il problema è che la maggior parte dei team non sta facendo quel tipo di tubazione. Stanno ricostruendo pipeline una tantum, scrivendo connettori fragili e patchando integrazioni che risolvono un problema solo una volta. Ciò è un debito tecnico mascherato da progresso.

Ciò che è strategico è tutto ciò che riduce l’attrito futuro: eliminare il codice personalizzato a favore degli standard, costruire servizi di dati riutilizzabili e connettere i sistemi in modi che si scalano attraverso i team e i casi d’uso. Quando la tubazione diventa invisibile e ripetibile, smette di essere una tassa per i team AI e diventa un abilitatore. L’obiettivo reale non è spendere meno tempo sui dati. È smettere di spendere tempo sugli stessi problemi di dati più e più volte.

Un punto di dati sorprendente del rapporto è che il 46% delle aziende richiede ora l’accesso in tempo reale a sei o più fonti di dati per un singolo caso d’uso AI. Riflette ciò che stai vedendo con i clienti e cosa rende questo livello di connettività così difficile?

Sì, ciò si allinea strettamente a ciò che stiamo vedendo con i clienti. I moderni casi d’uso AI, sia che si tratti di analisi predittive, motori di raccomandazione o flussi di lavoro autonomi, raramente si basano su un solo sistema. Le aziende spesso hanno bisogno di combinare ERP, CRM, app SaaS, piattaforme di streaming e database legacy per generare informazioni significative. La sfida non è solo il numero di fonti; è la varietà, protocolli diversi, formati e frequenze di aggiornamento, e l’aspettativa che questi dati siano disponibili in tempo reale per i modelli AI.

Ciò che rende questo livello di connettività difficile è che gli approcci di integrazione tradizionali non sono stati progettati per la scala, la velocità e l’affidabilità richieste dall’AI. Le connessioni una tantum e le pipeline batch semplicemente non possono stare al passo. L’accesso in tempo reale richiede interfacce gestite e standardizzate, semantica coerente attraverso i sistemi e monitoraggio per assicurare la qualità e la disponibilità dei dati. Senza quella base, i team spendono più tempo a combattere le pipeline che a costruire soluzioni AI, il che rallenta l’innovazione e introduce rischi. Le organizzazioni che hanno successo sono quelle che trattano la connettività come una capacità strategica, non solo come un compito tecnico.

Il rapporto sottolinea la coerenza semantica, il contesto e la connettività come caratteristiche definite dell’infrastruttura dei dati AI matura. Come dovrebbero pensare le organizzazioni alla sequenza di queste priorità?

Quando si pensa alla sequenza, le organizzazioni dovrebbero iniziare con la connettività. Se i dati non sono accessibili in modo affidabile attraverso i sistemi, tutto il resto diventa irrilevante. I modelli AI non possono imparare da ciò che non possono raggiungere. Stabilire connessioni standardizzate e gestite attraverso tutte le fonti di dati critiche crea la base per tutto ciò che segue. Senza quel livello, i team finiscono per costruire pipeline fragili e una tantum che creano più lavoro in seguito.

Una volta che la connettività è in place, la coerenza semantica diventa la prossima priorità. I dati necessitano di un linguaggio comune in modo che le informazioni da più fonti possano essere interpretate correttamente e combinate in modo significativo. Il contesto segue naturalmente: capire non solo i valori ma il loro significato all’interno del processo aziendale, del timing e delle relazioni assicura che i modelli AI possano fare previsioni accurate e azioni eseguibili. Trattare questi elementi come una sequenza strutturata – connettività prima, coerenza semantica seconda, contesto terzo – consente alle organizzazioni di costruire un’infrastruttura di dati pronta per l’AI che si scala e supporta intelligenza affidabile e pronta per la produzione.

I fornitori di software nativi AI richiedono ora circa tre volte più integrazioni esterne rispetto ai fornitori tradizionali. Cosa sta guidando questo divario in aumento e cosa rivela questo sulla direzione in cui si sta muovendo il software?

Il divario in aumento è guidato dalla natura stessa dell’AI: le applicazioni native AI prosperano sui dati diversi e in tempo reale da più fonti. A differenza del software tradizionale, che spesso opera all’interno di un singolo sistema o suite, i modelli AI necessitano di ingerire, correlare e analizzare informazioni attraverso sistemi ERP, piattaforme CRM, app SaaS, fonti di streaming e altro ancora. Ogni integrazione è essenziale per fornire all’AI sufficiente contesto e copertura per generare previsioni, raccomandazioni o azioni automatizzate accurate.

Questa tendenza rivela che il software si sta muovendo dalle applicazioni isolate verso ecosistemi intelligenti e interconnessi. I vincitori non saranno i prodotti che funzionano bene da soli. Saranno le piattaforme che possono accedere e integrare i dati ovunque vivano. In termini pratici, significa che la connettività, la standardizzazione e l’integrazione in tempo reale non sono più optional. Sono capacità fondamentali per il software nativo AI per offrire valore reale.

Guardando avanti cinque anni, cosa credi diventerà il collo di bottiglia più significativo per il successo dell’AI – connettività, pipeline in tempo reale, modellazione semantica, governance o qualcos’altro?

Guardando avanti, credo che la governance e la sicurezza diventeranno il collo di bottiglia più significativo per il successo dell’AI. Mentre la connettività e le pipeline in tempo reale rimangono fondamentali – i modelli AI possono essere solo efficaci quanto i dati a cui possono accedere – le organizzazioni stanno rapidamente realizzando che l’AI non gestita è insostenibile e potenzialmente pericolosa. Mentre l’AI si muove dall’esperimentazione alla produzione e inizia a influenzare decisioni aziendali critiche, i rischi di pregiudizio, violazioni della conformità, perdita di dati e errori operativi si moltiplicano esponenzialmente.

La sfida non è più solo spostare i dati – è spostare i dati giusti, con i controlli giusti, ai sistemi giusti, in un modo tracciabile e verificabile. Le organizzazioni che falliscono nell’incorporare solide strutture di governance e protocolli di sicurezza fin dall’inizio affronteranno una crescente pressione normativa, rischi per la reputazione e, alla fine, sistemi AI che non possono essere fidati o scalati. Stiamo già vedendo i primi segni: aziende esitanti a distribuire l’AI perché non possono garantire la genealogia dei dati, i controlli di accesso o la conformità con le norme in evoluzione.

Le organizzazioni più di successo tra cinque anni saranno quelle che trattano la governance e la sicurezza non come afterthought, ma come abilitatori fondamentali dell’AI. Sì, hai bisogno di connettività e pipeline in tempo reale per far fluire i dati – ma senza la governance e la sicurezza in place, quei dati diventano un fardello piuttosto che un asset. Il futuro dell’AI non è solo sulla velocità o sulla scala; è sulla fiducia, sulla responsabilità e sulla distribuzione responsabile a ogni livello dello stack di dati.

Grazie per la grande intervista, i lettori che desiderano saperne di più possono visitare CData Software.

Antoine è un leader visionario e socio fondatore di Unite.AI, guidato da una passione incrollabile per plasmare e promuovere il futuro dell'AI e della robotica. Un imprenditore seriale, crede che l'AI sarà altrettanto disruptiva per la società quanto l'elettricità, e spesso viene colto a parlare con entusiasmo del potenziale delle tecnologie disruptive e dell'AGI.
Come futurist, è dedicato a esplorare come queste innovazioni plasmeranno il nostro mondo. Inoltre, è il fondatore di Securities.io, una piattaforma focalizzata sugli investimenti in tecnologie all'avanguardia che stanno ridefinendo il futuro e ridisegnando interi settori.