Connect with us

Saurabh Giri, CPTO von Voltage Park – Interview-Reihe

Interviews

Saurabh Giri, CPTO von Voltage Park – Interview-Reihe

mm

Saurabh Giri ist der Chief Product und Technology Officer bei Voltage Park und Mitglied des Vorstands. Er ist verantwortlich für die Umsetzung der strategischen Vision des Unternehmens, die Definition des Produkt-Roadmaps und die Leitung der Engineering-Operationen. Zuvor leitete Saurabh Teams, die Amazon Bedrock, Amazons Plattform für generative KI, entwickelten, starteten und betrieben. Früher in seiner Karriere gründete Saurabh ein Next-Generation-Zahlungsplattform-Unternehmen und war CEO; gründete ein algorithmisches Trading-Unternehmen, das auf Market Making und Curve Arbitrage in den Futures-Märkten spezialisiert war; und beriet Vorstände und Management-Teams in Fragen der Strategie, Betriebs und Finanzen.

Voltage Parks Mission ist es, Unternehmen dabei zu helfen, Daten in Geschäftsinformationen mithilfe von KI umzuwandeln, indem sie KI-Infrastruktur für alle zugänglich machen. Mit Zehntausenden von GPUs in sechs Rechenzentren bietet Voltage Park weltklasse-Hardware und Kundenservice zu einem unglaublichen Wert – unabhängig davon, ob der Kunde ein Forscher, ein Start-up oder ein großes Unternehmen ist.

Sie haben bei sowohl Start-ups als auch einem der größten Cloud-Anbieter der Welt gearbeitet. Was hat Sie ursprünglich zur Welt der Infrastruktur und KI gezogen?

Generative KI wird in einer Weise, die nur wenige Technologien in den letzten Jahrzehnten hatten, transformational sein. Was heute mit Frontier-Modellen wie OpenAI’s GPT-5 möglich ist, wäre vor zehn Jahren undenkbar und sogar vor drei Jahren überraschend gewesen.

Wir sind noch in den Anfängen. Der Reiz für mich ist die Möglichkeit, die Infrastruktur-Ebene zu formen, die bestimmt, wie eine so profunde Technologie genutzt wird – für die Wissenschaft, für die Industrie und für die Gesellschaft im Allgemeinen.

Bei AWS haben Sie geholfen, Amazon Bedrock zu entwickeln. Welche Produkt-Engineering-Lektionen aus dieser Erfahrung wenden Sie bei Voltage Park an?

Amazon Bedrock hat in vielen Bereichen Neuland betreten, und ich bin wirklich stolz auf das, was das Bedrock-Team schnell erreichen konnte. Bedrocks Kerninsight war, dass Erbauer eine Abstraktionsebene benötigen, die Modellwahl und Modalität transparent macht – und sie so von der Infrastruktur-Komplexität befreit, um sich auf die Lösungsentwicklung zu konzentrieren. Es war die erste Branchenplattform, die einen nahtlosen Zugriff auf mehrere Grundmodelle – Text, Vision und multimodal – ohne dass Teams modellspezifische APIs oder Hardware-Einschränkungen navigieren mussten.

Die Fähigkeiten von Grundmodellen verbessern sich mit atemberaubender Geschwindigkeit – schneller als frühere technologische Verschiebungen wie Cloud-Computing, Mobile oder sogar das Internet selbst. Mein Bedrock-Team hat Innovationen auf diesem Tempo ausgeliefert und vorhergesehen, wohin sich die Modellfähigkeiten in zwei oder drei Generationen bewegen würden, und daraufhin aufgebaut.

Bei Voltage Park wenden wir das gleiche Prinzip an: Schnell vorankommen, um cutting-edge-Infrastruktur und Software-Abstraktionen zu liefern, die heute’s Schmerzpunkte lösen, während wir gleichzeitig für die Zukunft und das planen, was die Kunden benötigen, wenn die Technologie der Zukunft eintrifft.

Was waren die größten technischen und kulturellen Verschiebungen beim Wechsel von einem Hyperscaler zu einem kapital-effizienten Start-up wie Voltage Park?

Bei einem Hyperscaler existiert die Ingenieurarbeit innerhalb eines riesigen, ausgereiften Ökosystems – Tooling, Compliance, Marketing, Kundenlieferung – wo das Ganze mehr ist als die Summe seiner Teile. In einem Start-up tauschen Sie diese Rückenwinde gegen Geschwindigkeit, Kohäsion und Auswirkungen. Es gibt keine weitverzweigte Bürokratie, die Sie verlangsamen kann, aber es gibt auch keine vorgebaute Gerüst – Sie müssen Ihr eigenes schaffen. Die Belohnung ist kulturelle Kohäsion und die Fähigkeit, Produkte mit hohem Auswirkungspotenzial in einem Bruchteil der Zeit auszuliefern.

Voltage Park besitzt über 24.000 H100-GPUs und bietet Bare-Metal-Zugriff zu wettbewerbsfähigen Preisen. Welche Kundensegmente zielen Sie in erster Linie an?

Unsere Plattform umfasst Bare Metal, virtuelle Maschinen, Managed Kubernetes, Managed Slurm und eine komplementäre Software-Stack, die für KI-Workloads konzipiert ist. Wir bedienen jeden, der KI-Produkte baut oder mit KI arbeitet: Forscher, Start-ups und Unternehmen. Einige der fortschrittlichsten Modellbauer der Welt, wie Cursor, der den Stand der Wissenschaft und Technik im Machine Learning vorantreibt, trainieren ihre Modelle auf Voltage Park. Ähnlich laufen viele bekannte KI-Produkt-Unternehmen Inferenz-Workloads auf Voltage Park. Für Unternehmen senken wir sowohl die Kosten- als auch die Expertenschwelle, um von der Prototyp-Phase zur Produktion zu gelangen und Workloads zuverlässig zu skalieren.

Wie bewältigen Sie den Stromverbrauch, die Kosteneffizienz und die Nachhaltigkeit, während Sie Ihren Infrastruktur-Fußabdruck erweitern?

Wir haben und machen weiterhin erhebliche Investitionen, um unsere Rechenzentren effizient zu betreiben. Wir haben durch Innovationen wie KI-gesteuerte prädiktive Wartung, die Ausfallzeiten reduziert und Abfall im Vergleich zu reaktiver Wartung vermeidet, erhebliche Gewinne bei Stromverbrauch und Kosten erzielt. Der Großteil unseres aktuellen Fußabdrucks wird von 99%+ erneuerbarer und grüner Energie angetrieben, und dieser Anteil wird wachsen, wenn wir expandieren.

Wie prägen Partnerschaften und Standards die Evolution von Voltage Park als Full-Stack-KI-Infrastrukturanbieter?

Wir gehen Partnerschaften mit Unternehmen ein, die KI von theoretisch zu transformational bewegen. Ein gutes Beispiel ist unsere Investition in Matrice.ai, bei der wir die Seed-Erweiterung angeführt haben. Ihre Domänen-Experten in Vision-Modellen ermöglichen es unseren Kunden, Pixel in Intelligenz umzuwandeln, mit branchenspezifischen Lösungen in mehreren Branchen. Wir werden weiterhin die KI-Infrastruktur-Backbone für Modell-Anbieter bereitstellen, um ihre Modelle in einem modularen, integrierten Hardware-Software-Stack zu bereitstellen, der Leistung ohne Kompromisse bei Sicherheit oder Datenschutz liefert.

Wir sind auch ein aktiver Beitragender zur Open-Source-Community – unterstützen beispielsweise SGLang als Infrastruktur-Partner, um hochwertige, Open-Source-Projekte wie SpecForge der Community zur Verfügung zu stellen. Und wir haben uns mit der U.S. National Science Foundation zusammengetan, um das National AI Research Resource (NAIRR)-Pilotprojekt zu unterstützen, eine öffentlich-private Initiative, um den Zugang zu cutting-edge-KI-Tools für Forscher und Lehrkräfte im ganzen Land zu erweitern.

Welche unternehmensweiten Management-, Prüfbarkeits- oder Sicherheitsfunktionen priorisieren Sie für KI-Entwickler?

Sicherheit, Datenschutz und Compliance sind grundlegende Funktionen unserer KI-Factory-Plattform, und unsere Kunden haben die Gewissheit, mit einem unternehmensweiten Stack zu arbeiten. Wenn wir unseren Software-Stack weiter ausbauen, um zusätzliche Kunden-Schmerzpunkte zu lösen, fügen wir Funktionen wie granulare Ressourcen- und Datenberechtigungen, gestaffelte Prüfverfahren, Sicherheits-Schutzschranken und nahtlose Integration mit Unternehmens-Daten-Pipelines, APIs und Agent-Frameworks hinzu. Das Ziel ist es, den Kunden die Agilität der Cloud mit der Kontrolle einer On-Prem-Umgebung zu bieten.

Welchen Rat haben Sie für KI-Forscher und Infrastruktur-Teams, die effektiv in der heutigen rechenintensiven Umgebung skalieren möchten?

KI-Forscher und -Unternehmen sollten versuchen, die Zeit, die sie mit Infrastruktur-Herausforderungen verbringen, zu minimieren, da dies undifferenziert ist, und Vorteile aus höheren Primitiven wie Managed Kubernetes und Slurm ziehen. Wählen Sie Partner, die transparente Preise, Experten-Unterstützung und außergewöhnliche Ingenieur-Experten bieten, um Probleme zu lösen. Diese Faktoren werden sowohl Ihre Experimentierung als auch Ihre Skalierung beschleunigen.

Wo sehen Sie Voltage Park in drei Jahren – weiter unten im Stack in Richtung Full AI-as-a-Service oder in neue Bereiche wie Edge-Computing?

Drei Jahre in der KI-Landschaft sind eine Ära. Wir sind ein kundenorientiertes Unternehmen und werden in drei Jahren, wie jetzt, auf reale Kunden-Schmerzpunkte fokussieren, ob im Kontext des Aufbaus von KI-Produkten oder der Nutzung von KI. Ich erwarte, dass wir eine viel größere Breite und Tiefe in unserem Software-Stack haben werden und eine Erfolgsbilanz bei der Beschleunigung der KI-Adoption im großen Maßstab bei den weltweit führenden Unternehmen vorweisen können.

Vielen Dank für das großartige Interview. Leser, die mehr erfahren möchten, sollten Voltage Park besuchen.

Antoine ist ein visionärer Führer und Gründungspartner von Unite.AI, getrieben von einer unerschütterlichen Leidenschaft für die Gestaltung und Förderung der Zukunft von KI und Robotik. Ein Serienunternehmer, glaubt er, dass KI so disruptiv für die Gesellschaft sein wird wie Elektrizität, und wird oft dabei ertappt, wie er über das Potenzial disruptiver Technologien und AGI schwärmt.

Als futurist ist er darauf fokussiert, zu erforschen, wie diese Innovationen unsere Welt formen werden. Zusätzlich ist er der Gründer von Securities.io, einer Plattform, die sich auf Investitionen in hochmoderne Technologien konzentriert, die die Zukunft neu definieren und ganze Branchen umgestalten.