Connect with us

Piotr Tomasik, Co-Fondatore e Presidente di TensorWave – Serie di Interviste

Interviste

Piotr Tomasik, Co-Fondatore e Presidente di TensorWave – Serie di Interviste

mm

Piotr Tomasik, Co-Fondatore e Presidente di TensorWave, è un veterano imprenditore tecnologico e dirigente di infrastrutture AI con più di due decenni di esperienza che spazia su AI, SaaS, cloud computing, fintech e l’economia creativa. Prima di co-fondare TensorWave nel 2023, ha co-fondato Influential, una piattaforma di marketing di influencer alimentata da AI successivamente acquisita da Publicis per circa 500 milioni di dollari, dove ha ricoperto il ruolo di CTO prima di passare a un ruolo di consulente.

Nel corso della sua carriera, Tomasik ha anche fondato o diretto aziende come Lets Rolo, On Guard Data e ActiveSide, ricoprendo ruoli senior tecnologici in CARD.com e Marker Trax. Oltre ai suoi ruoli operativi, è un Partner Generale di 1864 Fund e co-fondatore di StartUp Vegas, dove sostiene attivamente l’ecosistema startup di Las Vegas e i talenti emergenti nel settore tecnologico. Laureato in informatica all’UNLV e riconosciuto come leader tecnologico, Tomasik è diventato noto per aver aiutato a posizionare TensorWave come un’azienda di infrastrutture di calcolo AI in rapida crescita, focalizzata su piattaforme cloud GPU di larga scala alimentate da acceleratori AMD.

TensorWave è un’azienda di infrastrutture AI che si concentra sulla fornitura di calcolo cloud ad alte prestazioni alimentato da GPU AMD, posizionandosi come un’alternativa a ecosistemi AI più chiusi. Fondata nel 2023 e con sede a Las Vegas, l’azienda costruisce cluster GPU di larga scala ottimizzati per l’addestramento e la distribuzione di modelli AI avanzati, con un’enfasi su prestazioni, flessibilità e efficienza dei costi. Sfruttando ecosistemi di hardware e software aperti, TensorWave mira ad ampliare l’accesso a risorse di calcolo AI potenti per imprese, ricercatori e sviluppatori, consentendo carichi di lavoro AI scalabili senza le limitazioni del tradizionale blocco del fornitore.

Nvidia domina la maggior parte del mercato GPU – perché hai deciso di puntare tutto su AMD e quali vantaggi offre questa scelta a TensorWave e ai suoi clienti?

Dopo il lancio di ChatGPT, la domanda di AI è schizzata alle stelle. Le GPU sono state acquistate in fretta e NVIDIA era fondamentalmente l’unica opzione, se si poteva ottenere e se si poteva permettere il costo. Quella scarsità ha scatenato un grande interesse per le alternative. Ora che siamo oltre l’initial hype, c’è una vera opportunità di sfidare la dominanza di Nvidia con soluzioni accessibili, efficienti in termini di costo e facili da usare.

Come startup, abbiamo sempre preso decisioni aziendali con un forte focus e uno scopo. È per questo che non abbiamo sperimentato con Nvidia e abbiamo continuato a costruire le nostre capacità su AMD. La prossima fase della nostra azienda consiste nel concentrarsi su quelle capacità focalizzate in modo che chiunque possa entrare e fare qualcosa di significativo con l’AI. AMD è un’alternativa credibile con una vera scala di produzione, un approccio software aperto e una roadmap memoria-prima per l’AI moderna.

Come si differenzia l’approccio di TensorWave all’infrastruttura AI rispetto ai tradizionali fornitori di cloud GPU?

La nostra differenziazione èstraightforward: siamo l’unico cloud AMD-esclusivo su larga scala, che mira a ripristinare la scelta nel calcolo AI, rompere la dominanza di Nvidia e democratizzare l’accesso. Ma si tratta anche della nostra etica e del nostro impegno per portare una vera alternativa sul mercato. In primo luogo, vogliamo fornire un’infrastruttura eccezionale basata su AMD su larga scala. Da lì, ci espanderemo in servizi di alto livello su di essa – Modelli come servizio, AI come servizio, rendendo tutto più semplice.

Come cloud AMD-esclusivo, abbiamo un’esperienza software costruita specificamente per AMD fin dal primo giorno. Questa focalizzazione ci consente di ottimizzare il silicio, la rete e il software dall’inizio alla fine, garantendo che i team possano scalare quando ne hanno bisogno.

Qual è il ruolo della partnership strategica con AMD nel crescita e nella differenziazione di TensorWave?

È fondamentale. AMD ha investito in TensorWave, ci ha invitato nel lancio di MI300X Instinct e continuiamo a collaborare strettamente su hardware, abilitazione software ed espansione dell’ecosistema. Essere un cloud AMD-esclusivo significa che possiamo muoverci rapidamente con ogni generazione di Instinct e servire come un laboratorio vivente che fornisce, su larga scala, alternative nel nostro mercato. La nostra differenziazione AMD-esclusiva ci ha permesso di lavorare a un ritmo che non è così raggiungibile nel mercato delle infrastrutture AI. La partnership con AMD ci consente di colmare le lacune rapidamente, di essere i primi a spedire nuove GPU e di pubblicare prestazioni reali su larga scala.

L’accesso alle GPU rimane un collo di bottiglia importante per i team AI – come sta affrontando TensorWave questa sfida?

Stiamo affrontando questi collo di bottiglia in primo luogo attraverso l’indipendenza di fornitura: costruendo su AMD, evitiamo il peggio delle limitazioni di fornitura di altri produttori di chip e passiamo la disponibilità ai clienti. L’indipendenza di fornitura attraverso AMD garantisce che i nostri clienti non siano bloccati in attesa nella stessa coda di tutti gli altri.

Le lacune nell’ecosistema delle infrastrutture AI esistono perché così tanti giocatori stanno costruendo soluzioni simili, creando molta sovrapposizione. Ciò deriva spesso da una mancanza di consapevolezza su ciò che sta accadendo in tutto il mercato. Il primo passo per colmare queste lacune è capire chi sta facendo cosa, dove ci sono opportunità di collaborazione, dove la concorrenza può guidare l’innovazione e, infine, come l’ecosistema possa migliorare nel suo complesso. Una lacuna unica nel mercato delle infrastrutture AI è la potenza; anche se le GPU sono disponibili, spesso non c’è abbastanza energia per supportare il crescente numero di applicazioni AI. Risolvere queste sfide di risorse è la chiave per abilitare una crescita e un’innovazione sostenibili negli anni a venire.

Come caratteristiche come il raffreddamento a liquido diretto e la rete pronta UEC (Universal Ethernet Consortium) migliorano le prestazioni e l’efficienza dei costi?

Il raffreddamento a liquido diretto e la rete pronta UEC sono fondamentali per ciò che rende un cloud AI moderno economicamente sostenibile su larga scala e sono centrali per come abbiamo progettato TensorWave.

Sul DLC: le nuove generazioni di acceleratori, AMD MI355X e MI455X, funzionano a involucri termici che l’aria non può gestire efficientemente. Stiamo parlando di 1400W+ TDP per GPU. Il raffreddamento a liquido diretto rimuove il calore alla fonte tramite piastre fredde o progetti di immersione, che fa tre cose per i nostri clienti. In primo luogo, consente una densità di rack sostanzialmente più alta, 120-300kW+ per rack invece di 30 a 40kW, il che comprime l’impronta e taglia i costi per megawatt di proprietà e distribuzione di energia. In secondo luogo, spinge il PUE verso 1,1, rispetto a 1,4 a 1,5 per le strutture raffreddate ad aria legacy; alla nostra scala, ciò si traduce in decine di milioni di dollari di risparmi annuali sulle utility. In terzo luogo, e spesso sottovalutato, il DLC mantiene il silicio a temperature più basse e più stabili, il che preserva i tassi di clock sostenuti durante lunghi periodi di addestramento e prolunga la vita utile del hardware. Quell’ultimo punto è enormemente importante quando si garantisce un asset di sei anni.

Sulla UEC: la specifica Ultra Ethernet Consortium, che AMD ha contribuito a fondare e che ha raggiunto la versione 1.0 nel 2025, ci fornisce un tessuto merchant-silicon aperto che soddisfa o supera InfiniBand sulle metriche che contano realmente per l’addestramento distribuito. La storia dei costi è strutturale. L’Ethernet ha una mezza dozzina di vendor di silicio merchant che competono sui prezzi, rispetto a un’alternativa a fonte unica che porta un premium ben documentato. Per un sito da 100MW, scegliere la rete pronta UEC invece di un tessuto proprietario è tipicamente una decisione di CAPEX a nove cifre e i vantaggi operativi si sommano perché i nostri ingegneri di rete già conoscono l’Ethernet.

Prese insieme, queste scelte ci consentono di offrire una migliore economia di addestramento rispetto ai cloud legacy. I clienti vedono un maggior numero di FLOPs effettivi per dollaro, tempi di passo più prevedibili per lavori di grandi dimensioni e una chiara corsia di decollo man mano che i modelli crescono. Per noi, significano una struttura di costi più difendibile e la flessibilità di offrire tariffe competitive.

Può condividere esempi di come i clienti stanno utilizzando TensorWave per addestrare modelli AI di larga scala?

I clienti di TensorWave hanno bisogno di calcolo AI ad alte prestazioni senza scarsità di GPU, blocco del fornitore o costi fuori controllo. TensorWave fornisce un cloud AMD esclusivo – aperto, ottimizzato per la memoria e pronto per la produzione – che fornisce ai team un’infrastruttura AI scalabile che è accessibile, flessibile e efficiente in termini di costo.

Ad esempio, Modular ha scelto di eseguire il suo stack di inferenza MAX su infrastrutture GPU AMD di TensorWave perché TensorWave offre una migliore economia di costo-prestazione per l’inferenza AI di larga scala. Eseguendo il MAX di Modular su calcolo AMD di TensorWave, raggiungono fino al 70% di riduzione del costo per milione di token, un throughput del 57% più veloce e un costo complessivo inferiore rispetto ad altri stack GPU.

Con la continua dominanza di Nvidia, dove vede le maggiori opportunità per i concorrenti come TensorWave?

In uno spazio di calcolo AI dominato da pochi grandi giocatori, le sfide più grandi sono raggiungere la velocità di mercato, fornire la tecnologia più recente e offrire un supporto eccezionale. I hyperscaler spesso offrono un’ampia gamma di opzioni, ma lottano per fornire la concentrazione o la guida personalizzata di cui i clienti hanno bisogno. Per rompere questo spazio dominato, TensorWave si concentra sui nostri punti di forza, collaborando per fornire la migliore tecnologia possibile e garantendo che i clienti abbiano opzioni alternative.

Le due maggiori opportunità per i concorrenti della dominanza di NVIDIA nelle infrastrutture AI sono negli ecosistemi aperti e nella memoria. Gli ecosistemi aperti eliminano il blocco a ogni livello (hardware, interconnessione e software). Inoltre, la memoria abbinata all’addestramento/inferenza ottimizzato per la rete capovolge la curva dei costi.

Guardando cinque anni avanti, come si immagina il futuro delle infrastrutture AI e il ruolo di TensorWave in esso?

Per anni, l’obiettivo nelle infrastrutture AI è stato quello di renderle valide, stabili e facili da usare. La prossima fase sarà su ciò che si può offrire su di esse – servizi gestiti, AI come servizio, qualsiasi cosa che aiuti i clienti a distribuire e scalare più facilmente.

Siamo all’inizio di una grande trasformazione. La tecnologia AI continua ad avanzare e le alternative come AMD stanno diventando sempre più valide. Man mano che ciò accade, i clienti diventeranno più a loro agio nel distribuirle su larga scala e l’intero ecosistema inizierà ad aprirsi e a crescere.

Grazie per la grande intervista, chiunque voglia saperne di più su questa innovativa azienda di infrastrutture AI dovrebbe visitare TensorWave.

Antoine è un leader visionario e socio fondatore di Unite.AI, guidato da una passione incrollabile per plasmare e promuovere il futuro dell'AI e della robotica. Un imprenditore seriale, crede che l'AI sarà altrettanto disruptiva per la società quanto l'elettricità, e spesso viene colto a parlare con entusiasmo del potenziale delle tecnologie disruptive e dell'AGI.
Come futurist, è dedicato a esplorare come queste innovazioni plasmeranno il nostro mondo. Inoltre, è il fondatore di Securities.io, una piattaforma focalizzata sugli investimenti in tecnologie all'avanguardia che stanno ridefinendo il futuro e ridisegnando interi settori.