Interviste
Saurabh Giri, CPTO di Voltage Park – Serie di Interviste

Saurabh Giri ricopre il ruolo di Chief Product e Technology Officer presso Voltage Park e fa parte del consiglio di amministrazione come direttore esecutivo. È responsabile dell’elaborazione della visione strategica dell’azienda, della definizione della roadmap dei prodotti e della gestione delle operazioni di ingegneria. In precedenza, Saurabh ha guidato team che hanno costruito, lanciato e gestito Amazon Bedrock, la piattaforma di Amazon per l’intelligenza artificiale generativa. All’inizio della sua carriera, Saurabh ha co-fondato e ricoperto il ruolo di CEO di una piattaforma di pagamento di prossima generazione; ha co-fondato una società di trading algoritmico specializzata in market making e curve di arbitraggio nei mercati dei futures; e ha consigliato consigli di amministrazione e team di gestione su strategia, operazioni e questioni finanziarie.
La missione di Voltage Park è quella di aiutare le aziende a trasformare i dati in intelligenza aziendale utilizzando l’AI, rendendo l’infrastruttura AI accessibile a tutti. Con decine di migliaia di GPU in sei data center, Voltage Park offre hardware e servizio clienti di classe mondiale a un valore incredibile – indipendentemente dal fatto che il cliente sia un ricercatore, una startup o un’azienda di grandi dimensioni.
Avete lavorato sia in startup che in una delle più grandi aziende cloud del mondo. Cosa vi ha inizialmente attirato nel mondo dell’infrastruttura e dell’AI?
L’intelligenza artificiale generativa sarà trasformativa in un modo che poche tecnologie hanno avuto nell’ultimo secolo. Ciò che è possibile oggi con modelli all’avanguardia come OpenAI’s GPT-5 sarebbe stato inconcepibile dieci anni fa e sorprendente anche solo tre anni fa.
Siamo ancora all’inizio. L’attrazione per me è l’opportunità di plasmare lo strato di infrastruttura che determina come una tecnologia così profonda sarà sfruttata – per la scienza, per l’industria e per la società nel suo complesso.
Presso AWS, avete aiutato a costruire Amazon Bedrock. Quali lezioni di ingegneria dei prodotti provenienti da quell’esperienza state applicando a Voltage Park?
Amazon Bedrock ha fatto nuove scoperte in molti modi, e sono veramente orgoglioso di ciò che il team Bedrock è stato in grado di realizzare velocemente. L’intuizione fondamentale di Bedrock era che i costruttori avevano bisogno di uno strato di astrazione che rendesse la scelta del modello e della modalità trasparente – liberandoli di concentrarsi sulla costruzione di soluzioni piuttosto che sulla gestione della complessità dell’infrastruttura. È stata la prima piattaforma industriale a fornire un accesso senza soluzione di continuità a più modelli di base – testo, visione e multimodale – senza richiedere ai team di navigare API o vincoli hardware specifici del modello.
Le capacità dei modelli di base stanno avanzando a un ritmo sorprendente – più veloce dei precedenti spostamenti tecnologici come il cloud computing, il mobile o addirittura internet stesso. Il mio team Bedrock ha spedito innovazione a quel ritmo, anticipando dove le capacità del modello sarebbero state due o tre generazioni più avanti e costruendo per quel futuro.
A Voltage Park, stiamo applicando lo stesso principio: muoversi velocemente per consegnare infrastrutture e astrazioni software all’avanguardia che risolvono i problemi odierni mentre si progettano per dove la tecnologia si sta dirigendo e cosa i clienti avranno bisogno quando la tecnologia del futuro arriverà.
Quali sono stati i più grandi spostamenti tecnici e culturali nel passaggio da un’azienda cloud iperscalabile a una startup efficiente dal punto di vista capitalistico come Voltage Park?
In un’azienda cloud iperscalabile, l’ingegneria esiste all’interno di un vasto ecosistema maturo – strumenti, conformità, marketing, consegna ai clienti – dove l’intero supera la somma delle sue parti. In una startup, si scambiano quei vantaggi con velocità, coesione e impatto. Non c’è una burocrazia ampia che ti rallenti, ma non c’è neanche una struttura preesistente – devi crearla tu. La ricompensa è la coesione culturale e la capacità di spedire prodotti ad alto impatto in una frazione del tempo.
Voltage Park possiede oltre 24.000 GPU H100 e offre accesso bare-metal a prezzi competitivi. Quali segmenti di clienti state principalmente bersagliando?
La nostra piattaforma copre bare metal, macchine virtuali, Kubernetes gestiti, Slurm gestiti e uno stack software complementare progettato per carichi di lavoro AI. Serviamo chiunque stia costruendo prodotti AI o costruendo con AI: ricercatori, startup e aziende. Alcuni dei costruttori di modelli più sofisticati al mondo oggi, come Cursor, che sta spingendo lo stato dell’arte nella scienza e nell’ingegneria del machine learning, stanno addestrando i loro modelli su Voltage Park. Allo stesso modo, molte aziende di prodotti AI ben note stanno eseguendo carichi di lavoro di inferenza su Voltage Park. Per le aziende, stiamo abbassando sia la soglia di costo che quella di competenza per passare facilmente da prototipo a produzione e scalare carichi di lavoro in modo affidabile.
Come state gestendo il consumo di energia, l’efficienza dei costi e la sostenibilità mentre espandete il vostro impianto di infrastrutture?
Abbiamo fatto e continuiamo a fare investimenti significativi per eseguire i nostri data center in modo efficiente. Abbiamo ottenuto guadagni significativi nel consumo di energia e nei costi attraverso innovazioni come la manutenzione predittiva guidata dall’AI, che riduce il tempo di fermo e evita gli sprechi rispetto alla manutenzione reattiva. La maggior parte del nostro attuale impianto è alimentata da energia rinnovabile e verde al 99% o più, e quella proporzione crescerà mentre ci espandiamo.
Come le partnership e gli standard stanno plasmando l’evoluzione di Voltage Park come fornitore di infrastrutture AI full-stack?
Ci associamo con aziende che stanno spostando l’AI dal teorico al trasformativo. Un buon esempio è il nostro investimento in Matrice.ai, dove abbiamo guidato la loro espansione di seed. La loro competenza di dominio nei modelli di visione consente ai nostri clienti di convertire i pixel in intelligenza con soluzioni specifiche del settore in più industrie. Continueremo a fornire la spina dorsale dell’infrastruttura AI ai fornitori di modelli per distribuire i loro modelli in uno stack hardware-software modulare e integrato che fornisce prestazioni senza compromettere la sicurezza o la privacy dei dati.
Siamo anche un contributore attivo alla comunità open-source – supportando, ad esempio, SGLang come nostro partner di infrastruttura per portare progetti open-source di alta qualità come SpecForge alla comunità. E ci siamo associati con la National Science Foundation degli Stati Uniti per sostenere il progetto pilota della National AI Research Resource (NAIRR), un’iniziativa pubblico-privata per espandere l’accesso a strumenti AI all’avanguardia per ricercatori e educatori in tutto il paese.
Quali funzionalità di gestione aziendale, controllabilità o sicurezza state priorizzando per gli sviluppatori AI?
La sicurezza, la privacy dei dati e la conformità sono funzionalità fondamentali della nostra piattaforma di fabbrica AI, e i nostri clienti hanno la tranquillità di lavorare con uno stack aziendale. Mentre costruiamo il nostro stack software per affrontare ulteriori punti deboli dei clienti, stiamo aggiungendo funzionalità come autorizzazioni di risorse e dati granulari, tracce di audit a più livelli, parapetti di sicurezza e integrazione senza soluzione di continuità con pipeline di dati aziendali, API e framework di agenti. L’obiettivo è dare ai clienti l’agilità del cloud con il controllo di un ambiente on-prem.
Qual consiglio avete per i ricercatori AI e i team di infrastrutture che mirano a scalare in modo efficace nell’attuale ambiente a computazione limitata?
I ricercatori AI e le aziende dovrebbero cercare di minimizzare il tempo che trascorrono affrontando sfide di infrastruttura, poiché è indifferenziata, e approfittare di primitive di livello superiore come Kubernetes gestiti e Slurm. Scegliete partner che offrono prezzi trasparenti, supporto operativo esperto e eccezionale competenza ingegneristica per aiutare a risolvere problemi. Quei fattori accelereranno sia la vostra sperimentazione che la vostra scalabilità.
Dove vedete Voltage Park tra tre anni – più giù nella pila verso un full AI-as-a-service, o ramificandosi in nuove aree come il calcolo edge?
Tre anni nel panorama AI sono un’epoca. Siamo un’azienda che mette i clienti al primo posto e tra tre anni, come adesso, ci concentreremo sui reali punti deboli dei clienti, sia nel contesto della costruzione di prodotti AI che nell’utilizzo di essi. Mi aspetto che avremo molta più sofisticazione nella vastità e nella profondità del nostro stack software, e un record di aiuto alle aziende leader del mondo ad accelerare l’adozione di AI su larga scala.
Grazie per la grande intervista, i lettori che desiderano saperne di più possono visitare Voltage Park.












