Intervjuer
Saurabh Giri, CPTO på Voltage Park – Intervjuserie

Saurabh Giri tjänstgör som Chief Product och Technology Officer på Voltage Park och är en verkställande direktör i dess styrelse. Han ansvarar för att driva företagets strategiska vision, definiera dess produktväg och driva ingenjörsverksamheten. Tidigare ledde Saurabh team som byggde, lanserade och drev Amazon Bedrock, Amazons plattform för generativ AI. Tidigare i sin karriär co-founded och tjänstgjorde Saurabh som VD för en nästa generationsbetalningsplattform; co-founded ett algoritmiskt handelsföretag som specialiserade sig på marknadsföring och kurvarbitrage på futuresmarknaden; och rådde styrelser och ledningsteam om strategi, verksamhet och finansiella frågor.
Voltage Parks mission är att hjälpa företag att omvandla data till affärsintelligens med hjälp av AI, genom att göra AI-infrastruktur tillgänglig för alla. Med tiotusentals GPU:er över sex datacenter erbjuder Voltage Park världsklassens hårdvara och kundservice till en otrolig värde – oavsett om kunden är en forskare, ett startup eller ett stort företag.
Du har arbetat på både startup och en av världens största molnleverantörer. Vad drog dig ursprungligen till världen av infrastruktur och AI?
Generativ AI kommer att vara transformationell på ett sätt som få tekniker har varit under de senaste hundra åren. Vad som är möjligt idag med frontier-modeller som OpenAI:s GPT-5 skulle ha varit otänkbart för tio år sedan och förvånansvärt även för tre år sedan.
Vi är fortfarande i de tidiga skedena. Dragningen för mig är möjligheten att forma infrastrukturlagret som bestämmer hur en sådan djupgående teknik kommer att utnyttjas – för vetenskap, för industri och för samhället i stort.
På AWS hjälpte du till att bygga Amazon Bedrock. Vilka produkttekniska lärdomar från den erfarenheten tillämpar du på Voltage Park?
Amazon Bedrock bröt ny mark på många sätt, och jag är riktigt stolt över vad Bedrock-teamet kunde åstadkomma snabbt. Bedrocks kärninsikt var att byggare behövde en abstraktionslager som gjorde modellval och modalitet transparent – och fria att fokusera på att bygga lösningar snarare än att hantera infrastrukturkomplexitet. Det var den första branschplattformen som erbjöd sömlös åtkomst till flera grundmodeller – text, vision och multimodal – utan att kräva att teamen navigerade modellspecifika API:er eller hårdvarubegränsningar.
Grundmodellens kapaciteter utvecklas i en hisnande takt – snabbare än tidigare tekniska skift som molntjänster, mobila enheter eller till och med internet självt. Mitt Bedrock-team levererade innovation i den takt, förutspådde var modellkapaciteterna skulle vara två eller tre generationer framåt och byggde för den framtiden.
På Voltage Park tillämpar vi samma princip: Flytta snabbt för att leverera avancerad infrastruktur och programvaruabstraktioner som löser dagens smärtor samtidigt som vi utvecklar för var tekniken är på väg och vad kunderna kommer att behöva när framtiden anländer.
Vilka var de största tekniska och kulturella skiftningarna i att gå från en hyperscaler till en kapital-effektiv startup som Voltage Park?
På en hyperscaler existerar ingenjörerna inom ett stort, moget ekosystem – verktyg, regelefterlevnad, marknadsföring, kundleverans – där helheten överstiger summan av delarna. I en startup handlar du med dessa medvindar för hastighet, sammanhållning och påverkan. Det finns ingen spridd byråkrati som bromsar dig, men det finns heller ingen färdigbyggd ställning – du måste skapa din egen. Belöningen är kulturell sammanhållning och förmågan att leverera högpresterande produkter på en bråkdel av tiden.
Voltage Park äger 24 000-plus H100-GPU:er och erbjuder bar metallåtkomst till konkurrenskraftiga priser. Vilka kundsegment riktar du dig främst till?
Vår plattform omfattar bar metall, virtuella maskiner, hanterade Kubernetes, hanterad Slurm och en kompletterande programvarustack som är utformad för AI-arbetsbelastningar. Vi betjänar alla som bygger AI-produkter eller bygger med AI: forskare, startup och företag. Några av de mest avancerade modellbyggarna i världen idag, som Cursor, som driver utvecklingen av maskinlärning inom vetenskap och teknik, tränar sina modeller på Voltage Park. Likaså kör många kända AI-produktföretag inferensarbetsbelastningar på Voltage Park. För företag sänker vi både kostnaden och expertisetröskeln för att gå från prototyp till produktion enkelt och skala arbetsbelastningar på ett tillförlitligt sätt.
Hur hanterar du effektanvändning, kostnadseffektivitet och hållbarhet när du utökar din infrastrukturfotavtryck?
Vi har gjort och fortsätter att göra betydande investeringar i att köra våra datacenter effektivt. Vi har utvecklat betydande vinster i effektanvändning och kostnad genom innovationer som AI-driven prediktiv underhåll, som minskar nedtid och undviker slöseri jämfört med reaktivt underhåll. Den överväldigande majoriteten av vår nuvarande fotavtryck är driven av 99-procent plus förnybar och grön energi, och den relationen kommer att öka när vi utökar.
Hur formar partnerskap och standarder Voltage Parks utveckling som en fullständig AI-infrastrukturleverantör?
Vi samarbetar med företag som flyttar AI från teoretisk till transformationell. Ett bra exempel är vår investering i Matrice.ai, där vi ledde deras utsädeexpansion. Deras domänkompetens inom visionsmodeller möjliggör för våra kunder att omvandla pixlar till intelligens med vertikalt specifika lösningar över flera branscher. Vi kommer att fortsätta att tillhandahålla AI-infrastrukturryggraden till modellleverantörer för att distribuera sina modeller i en modulär, integrerad hårdvaru- och programvarustack som levererar prestanda utan att kompromissa med säkerhet eller datasekretess.
Vi är också en aktiv bidragsgivare till den öppna källkodsgemenskapen – som stöder till exempel SGLang som vår infrastrukturpartner för att ta med högkvalitativa, öppna källkodsprojekt som SpecForge till gemenskapen. Och vi har samarbetat med den amerikanska nationella vetenskapsstiftelsen för att stödja den nationella AI-forskningsresursen (NAIRR) piloten, en offentlig-privat initiativ för att utöka tillgången till avancerade AI-verktyg för forskare och utbildare över hela landet.
Vilka företagsklassade hanterings-, gransknings- eller säkerhetsfunktioner prioriterar du för AI-utvecklare?
Säkerhet, datasekretess och regelefterlevnad är grundläggande funktioner i vår AI-fabriksplattform, och våra kunder har tryggheten att arbeta med en företagsklassad stack. När vi bygger ut vår programvarustack för att hantera ytterligare kundsmärtor lägger vi till funktioner som granulära resurs- och datatillstånd, nivågranskningspår, säkerhetsräcken och sömlös integration med företagsdata pipelines, API:er och agentramverk. Målet är att ge kunderna agiliteten i molnet med kontrollen i en lokal miljö.
Vad råd har du till AI-forskare och infrastrukturlag som syftar till att skala effektivt i dagens beräkningsbegränsade miljö?
AI-forskare och företag bör försöka minimera den tid de tillbringar med att hantera infrastrukturutmaningar, eftersom det är odifferentierat, och dra nytta av högre nivåprimitiver som hanterade Kubernetes och Slurm. Välj partners som erbjuder transparent prissättning, expertdriven operativt stöd och exceptionell ingenjörskompetens för att hjälpa till att felsöka problem. Dessa faktorer kommer att påskynda både er experiment och er skalaupp.
Där ser du Voltage Park om tre år – längre ner i stacken mot fullständig AI-tjänst eller grenar ut i nya områden som edge-beräkning?
Tre år i AI-landskapet är en epok. Vi är ett kundförst företag och om tre år, som nu, kommer att fokusera på verkliga kundsmärtor, antingen i sammanhanget att bygga AI-produkter eller konsumera dem. Jag förväntar mig att vi kommer att ha mycket mer sofistikation i bredd och djup i vår programvarustack, och en spårning av att ha hjälpt världens ledande företag att accelerera antagandet av AI i skala.
Tack för den underbara intervjun, läsare som vill lära sig mer bör besöka Voltage Park.












