Interviews
Piotr Tomasik, Co-Founder und President von TensorWave – Interview-Serie

Piotr Tomasik, Co-Founder und President von TensorWave, ist ein erfahrener Technologie-Unternehmer und AI-Infrastruktur-Executive mit mehr als zwei Jahrzehnten Erfahrung in den Bereichen KI, SaaS, Cloud-Computing, Finanztechnologie und Creator-Ökonomie. Bevor er 2023 TensorWave co-gründete, co-gründete er Influential, eine KI-basierte Influencer-Marketing-Plattform, die später von Publicis für etwa 500 Millionen Dollar übernommen wurde, wo er als CTO tätig war, bevor er in eine Beratungsrolle wechselte.
Im Laufe seiner Karriere hat Tomasik auch Unternehmen wie Lets Rolo, On Guard Data und ActiveSide gegründet oder geleitet, während er gleichzeitig Senior-Technologie-Positionen bei CARD.com und Marker Trax innehatte. Darüber hinaus ist er als General Partner bei 1864 Fund und als Co-Founder von StartUp Vegas tätig, wo er aktiv das Startup-Ökosystem in Las Vegas und das aufstrebende Tech-Talent unterstützt. Als Absolvent der Computerwissenschaften an der UNLV und anerkannter Tech-Führer hat Tomasik es geschafft, TensorWave als schnell wachsendes KI-Computing-Infrastruktur-Unternehmen zu positionieren, das sich auf große GPU-Cloud-Plattformen konzentriert, die von AMD-Acceleratoren angetrieben werden.
TensorWave ist ein KI-Infrastruktur-Unternehmen, das sich auf die Bereitstellung von Hochleistungs-Cloud-Computing mit AMD-GPUs konzentriert und sich als Alternative zu geschlosseneren KI-Ökosystemen positioniert. Gegründet im Jahr 2023 und mit Hauptsitz in Las Vegas baut das Unternehmen große GPU-Cluster, die für die Ausbildung und Bereitstellung fortschrittlicher KI-Modelle optimiert sind, mit dem Schwerpunkt auf Leistung, Flexibilität und Kosteneffizienz. Durch die Nutzung offener Hardware- und Software-Ökosysteme zielt TensorWave darauf ab, den Zugang zu leistungsstarken KI-Computing-Ressourcen für Unternehmen, Forscher und Entwickler zu erweitern und skalierbare KI-Workloads ohne die Einschränkungen traditioneller Vendor-Lock-in zu ermöglichen.
Nvidia dominiert den größten Teil des GPU-Marktes – warum haben Sie sich entschieden, auf AMD zu setzen, und welche Vorteile bringt diese Entscheidung TensorWave und seinen Kunden?
Nach dem Launch von ChatGPT ist die Nachfrage nach KI in die Höhe geschnellt. GPUs wurden schnell aufgebraucht, und NVIDIA war praktisch die einzige Option, wenn man sie überhaupt bekommen konnte und wenn man den Preis bezahlen konnte. Dieser Mangel hat ein enormes Interesse an Alternativen geweckt. Jetzt, da wir die anfängliche Hysterie überwunden haben, gibt es eine echte Chance, Nvidias Dominanz mit Lösungen herauszufordern, die zugänglich, kosteneffizient und einfach zu verwenden sind.
Als Startup haben wir immer Geschäftsentscheidungen mit einem starken Fokus und Zweck getroffen. Deshalb haben wir nicht mit NVIDIA experimentiert und haben unsere Fähigkeiten auf AMD aufgebaut. Die nächste Phase unseres Unternehmens besteht darin, uns auf diese fokussierten Fähigkeiten zu konzentrieren, damit jeder mit KI etwas Bedeutungsvolles tun kann. AMD ist eine glaubwürdige Alternative mit echter Fertigungskapazität, einer offenen Software-Haltung und einem memory-first-Roadmap für moderne KI.
Wie unterscheidet sich TensorWaves Ansatz zur KI-Infrastruktur von traditionellen GPU-Cloud-Anbietern?
Unsere Differenzierung ist einfach: Wir sind die einzige AMD-exklusive Cloud im großen Maßstab, die sich daran macht, die Wahl in der KI-Computing zu restaurieren, Nvidias Dominanz zu brechen und den Zugang zu demokratisieren. Aber es geht auch um unsere Ethik und unser Engagement, eine wahre Alternative auf den Markt zu bringen. Zunächst und vor allem möchten wir außergewöhnliche AMD-basierte Infrastruktur im großen Maßstab bereitstellen. Von dort aus werden wir uns auf Top-Tier-Dienste auf dieser Basis ausdehnen – Models-as-a-Service, AI-as-a-Service, um alles einfacher zu machen.
Als all-AMD-Cloud haben wir Software-Erfahrung, die speziell für AMD entwickelt wurde. Diese Konzentration ermöglicht es uns, Silizium, Networking und Software von Anfang an zu optimieren, um sicherzustellen, dass Teams skalieren können, wenn sie müssen.
Wie spielt die strategische Partnerschaft mit AMD bei TensorWaves Wachstum und Differenzierung eine Rolle?
Sie ist grundlegend. AMD hat in TensorWave investiert, uns zur MI300X-Instinct-Einführung eingeladen und wir arbeiten eng bei Hardware, Software-Enablement und Ökosystem-Wachstum zusammen. Als all-AMD-Cloud können wir mit jeder Instinct-Generation schnell vorankommen und als lebendes Labor dienen, das im großen Maßstab Alternativen in unserem Markt bereitstellt. Unsere AMD-exklusive Differenzierung hat es uns ermöglicht, mit einem Tempo zu arbeiten, das in der KI-Infrastruktur nicht so erreichbar ist. Die Partnerschaft mit AMD ermöglicht es uns, Lücken schnell zu schließen, als Erste auf neuen GPUs zu veröffentlichen und echte Leistung im großen Maßstab zu veröffentlichen.
Der Zugang zu GPUs bleibt ein großes Hindernis für KI-Teams – wie geht TensorWave dieses Problem an?
Wir gehen diese Engpässe zunächst durch die Unabhängigkeit von der Versorgung an: Indem wir auf AMD aufbauen, vermeiden wir die schlimmsten Versorgungseinschränkungen anderer Chip-Hersteller und geben die Verfügbarkeit an unsere Kunden weiter. Die Unabhängigkeit von der Versorgung durch AMD stellt sicher, dass unsere Kunden nicht im gleichen Warteschlangen wie alle anderen feststecken.
Lücken im KI-Infrastruktur-Ökosystem existieren, weil so viele Spieler ähnliche Lösungen aufbauen, was zu viel Überlappung führt. Das kommt oft von einem Mangel an Bewusstsein darüber, was auf dem Markt passiert. Der erste Schritt, um diese Lücken zu schließen, besteht darin, zu verstehen, wer was tut, wo es Chancen für Zusammenarbeit gibt, wo der Wettbewerb Innovationen antreiben kann und letztendlich, wie das Ökosystem als Ganzes verbessert werden kann. Eine einzigartige Lücke im KI-Infrastruktur-Markt ist die Leistung; selbst wenn GPUs verfügbar sind, gibt es oft nicht genug Energie, um die wachsende Anzahl von KI-Anwendungen zu unterstützen. Die Lösung dieser Ressourcen-Herausforderungen ist unser Schlüssel, um nachhaltiges Wachstum und Innovation in den kommenden Jahren zu ermöglichen.
Wie verbessern Funktionen wie direktes Flüssigkeitskühlen und UEC-fähiges Networking (Universal Ethernet Consortium) die Leistung und Kosteneffizienz?
Direktes Flüssigkeitskühlen und UEC-fähiges Networking sind grundlegend für das, was eine moderne KI-Cloud wirtschaftlich tragfähig im großen Maßstab macht, und beide sind zentral für die Art und Weise, wie wir TensorWave entworfen haben.
Zum direkten Flüssigkeitskühlen: Die neuesten Beschleuniger-Generationen, AMDs MI355X und MI455X, laufen bei thermischen Grenzen, die Lufteffizienz nicht mehr bewältigen kann. Wir sprechen von 1400W+ TDP pro GPU. Direktes Flüssigkeitskühlen entfernt die Wärme an der Quelle über eine Kaltplatte oder Tauchdesigns, was drei Dinge für unsere Kunden tut. Erstens ermöglicht es eine wesentlich höhere Rack-Dichte, 120-300kW+ pro Rack anstelle von 30 bis 40kW, was den Fußabdruck komprimiert und die Kosten pro Megawatt für Grundstücke und Stromverteilung reduziert. Zweitens treibt es den PUE-Wert auf 1,1, im Vergleich zu 1,4 bis 1,5 für herkömmliche luftgekühlte Anlagen; bei unserem Maßstab entspricht das Zehnmillionen Dollar an jährlichen Stromkosten. Drittens und oft unterschätzt, hält das Flüssigkeitskühlen das Silizium bei niedrigeren, stabileren Junction-Temperaturen, was die Lebensdauer der Hardware verlängert. Letzterer Punkt ist enorm wichtig, wenn man ein sechsjähriges Vermögen abschreibt.
Zum UEC: Der Ultra-Ethernet-Consortium-Spezifikation, den AMD mitbegründet hat und der 2025 die Version 1.0 erreicht hat, gibt uns ein offenes, merchant-silicon-Fabric, das InfiniBand auf den Metriken, die wirklich wichtig für verteiltes Training sind, erreicht oder übertrifft. Die Kosten-Geschichte ist strukturell. Ethernet hat ein halbes Dutzend glaubwürdiger Merchant-Silicon-Hersteller, die um den Preis konkurrieren, im Vergleich zu einer einzigen Quelle, die einen bekannten Aufpreis mit sich bringt. Für eine 100-MW-Anlage ist die Wahl von UEC-fähigem Networking anstelle eines proprietären Fabrics in der Regel eine neunstellige CAPEX-Entscheidung, und die betrieblichen Vorteile kumulieren, weil unsere Netzwerk-Ingenieure bereits Ethernet kennen.
Insgesamt ermöglichen uns diese Entscheidungen, bessere Trainings-Ökonomie als herkömmliche Clouds zu liefern. Kunden sehen höhere effektive FLOPs pro Dollar, schnellere Schritte bei großen Aufträgen und eine klare Perspektive, wenn Modelle skaliert werden. Für uns bedeuten sie eine defensiblere Kostenstruktur und die Flexibilität, wirklich wettbewerbsfähige Tarife anzubieten.
Können Sie Beispiele nennen, wie Kunden TensorWave nutzen, um große KI-Modelle auszubilden?
TensorWave-Kunden benötigen Hochleistungs-KI-Computing ohne GPU-Mangel, Vendor-Lock-in oder übermäßige Kosten. TensorWave bietet exklusive AMD-Cloud – offen, memory-optimiert und produktionssicher, was Teams skalierbare KI-Infrastruktur bietet, die zugänglich, flexibel und kosteneffizient ist.
Zum Beispiel hat Modular sich entschieden, seinen MAX-Inferenz-Stack auf TensorWaves AMD-GPU-Infrastruktur zu betreiben, da TensorWave wesentlich bessere Kosten-Leistungs-Ökonomie für große KI-Inferenz bietet. Durch den Betrieb von Modulars MAX auf TensorWaves AMD-Computing erreichen sie bis zu 70% geringere Kosten pro Million Token, 57% schnellere Durchsatzraten und geringere Gesamtkosten im Vergleich zu anderen GPU-Stacks.
Wo sehen Sie mit Nvidias anhaltender Dominanz die größten Chancen für Herausforderer wie TensorWave?
In einem KI-Computing-Raum, der von einigen großen Spielern dominiert wird, sind die größten Herausforderungen, das Tempo auf dem Markt zu erreichen, die neueste Technologie bereitzustellen und außergewöhnliche Unterstützung zu bieten. Hyperscaler bieten oft eine breite Palette von Optionen an, aber sie haben Schwierigkeiten, den Fokus oder die persönliche Beratung zu bieten, die Kunden benötigen. Um durch diesen dominierten Raum zu brechen, konzentriert sich TensorWave auf unsere Stärken, während wir zusammenarbeiten, um die beste Technologie bereitzustellen und sicherzustellen, dass Kunden alternative Optionen haben.
Die beiden größten Chancen für Herausforderer von Nvidias KI-Infrastruktur-Dominanz liegen in offenen Ökosystemen und Speicher. Offene Ökosysteme eliminieren Lock-in auf jeder Ebene (Hardware, Interconnect und Software). Zusätzlich kehrt Speicher in Verbindung mit Netzwerk-optimiertem Training/Inferenz die Kostenkurve um.
Wie sehen Sie in fünf Jahren die Zukunft der KI-Infrastruktur und die Rolle von TensorWave darin?
Für Jahre war das Ziel in der KI-Infrastruktur, sie gut, stabil und einfach zu bedienen zu machen. Die nächste Phase wird darum gehen, was man darauf aufbauen kann – Managed Services, AI-as-a-Service, alles, was Kunden hilft, einfacher zu deployen und zu skalierten.
Wir stehen am Anfang einer großen Transformation. KI-Technologie macht weiterhin Fortschritte, und Alternativen wie AMD werden immer viabler. Wenn das passiert, werden Kunden immer mehr damit komfortabel, sie im großen Maßstab zu deployen, und das gesamte Ökosystem wird beginnen, sich zu öffnen und zu wachsen.
Vielen Dank für das großartige Interview, jeder, der mehr über dieses innovative KI-Infrastruktur-Unternehmen erfahren möchte, sollte TensorWave besuchen.












