Connect with us

Piotr Tomasik, Co-Fondator și Președinte al TensorWave – Seria de Interviuri

Interviuri

Piotr Tomasik, Co-Fondator și Președinte al TensorWave – Seria de Interviuri

mm

Piotr Tomasik, Co-Fondator și Președinte al TensorWave, este un veteran antreprenor în tehnologie și un executiv în infrastructura inteligenței artificiale, cu peste două decenii de experiență în domenii precum inteligența artificială, SaaS, calculul în nor, fintech și economia creatorilor. Înainte de a co-fonda TensorWave în 2023, el a co-fondat Influential, o platformă de marketing influențator bazată pe inteligență artificială, care a fost ulterior achiziționată de Publicis pentru aproximativ 500 de milioane de dolari, unde a ocupat funcția de CTO, înainte de a trece la un rol de consilier.

De-a lungul carierei sale, Tomasik a fondat sau condus companii precum Lets Rolo, On Guard Data și ActiveSide, ocupând funcții senior de tehnologie la CARD.com și Marker Trax. Pe lângă rolurile sale operaționale, el este Partener General la 1864 Fund și co-fondator al StartUp Vegas, unde susține activ ecosistemul de startup-uri din Las Vegas și talentul emergent în tehnologie. Absolvent al facultății de științe computaționale de la UNLV și lider recunoscut în tehnologie, Tomasik a devenit cunoscut pentru contribuția sa la poziționarea TensorWave ca o companie de infrastructură de calcul în inteligență artificială în plină expansiune, axată pe platforme de nor cu GPU-uri mari, alimentate de acceleratoare AMD.

TensorWave este o companie de infrastructură de inteligență artificială axată pe furnizarea de calcul în nor de înaltă performanță, alimentat de GPU-uri AMD, poziționându-se ca o alternativă la ecossistemele de inteligență artificială mai închise. Fondată în 2023 și cu sediul central în Las Vegas, compania construiește clusteruri de GPU mari, optimizate pentru antrenarea și implementarea modelelor avansate de inteligență artificială, cu accent pe performanță, flexibilitate și eficiență a costurilor. Prin utilizarea ecosistemelor de hardware și software deschise, TensorWave își propune să extindă accesul la resursele de calcul de inteligență artificială puternice pentru întreprinderi, cercetători și dezvoltatori, permițând încărcări de lucru de inteligență artificială scalabile, fără constrângerile blocajului tradițional al furnizorilor.

Nvidia domină cea mai mare parte a pieței de GPU – de ce ați decis să vă axați pe AMD și care sunt avantajele acestei alegeri pentru TensorWave și clienții săi?

După lansarea ChatGPT, cererea de inteligență artificială a explodat. GPU-urile s-au epuizat rapid, iar NVIDIA a fost practic singura opțiune, dacă se putea obține și dacă se putea suporta costul. Această penurie a declanșat un interes enorm pentru alternative. Acum, că suntem dincolo de hype-ul inițial, există o oportunitate reală de a contesta dominanța NVIDIA cu soluții accesibile, eficiente din punct de vedere al costurilor și ușor de utilizat.

Ca startup, am luat întotdeauna decizii de afaceri cu un focus puternic și un scop. De aceea, nu am experimentat cu Nvidia și am continuat să construim capacitățile noastre pe AMD. Următoarea fază a companiei noastre se axează pe aprofundarea capacităților noastre concentrate, astfel încât oricine să poată sări într-acțiune și să facă ceva semnificativ cu inteligența artificială. AMD este o alternativă credibilă, cu o scară reală de fabricație, o atitudine deschisă în ceea ce privește software-ul și o hartă de drum pentru inteligența artificială modernă, axată pe memorie.

Cum se diferențiază abordarea TensorWave în ceea ce privește infrastructura de inteligență artificială de cea a furnizorilor tradiționali de nor cu GPU?

Diferențierea noastră este una simplă: suntem singurul nor exclusiv AMD la scară, care își propune să restaureze alegerea în ceea ce privește calculul de inteligență artificială, să înfrângă dominanța NVIDIA și să democratizeze accesul. Dar este și despre etosul și angajamentul nostru de a aduce o adevărată alternativă pe piață. În primul rând, dorim să oferim infrastructură excepțională bazată pe AMD, la scară. De acolo, vom extinde serviciile de top pe această bază – Modele ca Serviciu, Inteligență Artificială ca Serviciu, făcând totul mai simplu.

Ca nor exclusiv AMD, avem experiență în software construită special pentru AMD, de la început. Acest focus ne permite să optimizăm siliciul, rețeaua și software-ul de la capăt la capăt, asigurându-ne că echipele pot scala atunci când au nevoie.

Care este rolul parteneriatului strategic cu AMD în creșterea și diferențierea TensorWave?

Este fundamental. AMD a investit în TensorWave, ne-a invitat la lansarea MI300X Instinct și continuăm să colaborăm strâns în ceea ce privește hardware-ul, activarea software-ului și creșterea ecosistemului. A fi un nor exclusiv AMD ne permite să ne mișcăm rapid cu fiecare generație Instinct și să servim ca un laborator viu care oferă, la scară, alternative în piața noastră. Diferențierea noastră exclusivă AMD ne-a permis să lucrăm la un ritm care nu este atât de realizabil pe piața infrastructurii de inteligență artificială. Parteneriatul lor ne permite să închidem golurile rapid, să livrăm primii noi GPU-uri și să publicăm performanțe reale la scară.

Accesul la GPU rămâne o problemă majoră pentru echipele de inteligență artificială – cum abordează TensorWave această provocare?

Abordăm aceste blocaje în primul rând prin independența aprovizionării: construind pe AMD, evităm cea mai proastă parte a constrângerilor de aprovizionare ale altor producători de cipuri și transmitem disponibilitatea clienților noștri.

Golurile din ecosistemul infrastructurii de inteligență artificială există pentru că atât de mulți jucători construiesc soluții similare, ceea ce creează o suprapunere considerabilă. Acest lucru provine adesea din lipsa de conștientizare a ceea ce se întâmplă pe piață. Primul pas pentru a închide aceste goluri este să înțelegem cine face ce, unde există oportunități de colaborare, unde competiția poate stimula inovația și, în cele din urmă, cum ecosistemul poate fi îmbunătățit în ansamblu. Una dintre golurile unice în piața infrastructurii de inteligență artificială este puterea; chiar dacă GPU-urile sunt disponibile, adesea nu există suficientă energie pentru a susține numărul tot mai mare de aplicații de inteligență artificială. Soluționarea acestor provocări ale resurselor este cheia noastră pentru a permite creșterea și inovația durabilă în anii următori.

Cum îmbunătățesc caracteristici precum răcirea lichidă directă și rețeaua UEC (Universal Ethernet Consortium) performanța și eficiența costurilor?

Răcirea lichidă directă și rețeaua UEC sunt fundamentale pentru ceea ce face un nor de inteligență artificială viabil din punct de vedere economic la scară și sunt centrale pentru modul în care am proiectat TensorWave.

În ceea ce privește DLC: noile generații de acceleratoare, AMD MI355X și MI455X, rulează la envelope termice pe care aerul nu le poate gestiona eficient. Ne referim la 1400W+ TDP pe GPU. Răcirea lichidă directă elimină căldura la sursă prin intermediul plăcii reci sau a proiectării de imersiune, ceea ce face trei lucruri pentru clienții noștri. În primul rând, permite o densitate de raft substanțial mai mare, 120-300kW+ pe raft, în loc de 30 până la 40kW, ceea ce comprimă amprenta și reduce costurile cu megawattul de real estate și distribuția de energie. În al doilea rând, conduce PUE spre 1,1, în comparație cu 1,4 până la 1,5 pentru facilitățile cu răcire cu aer legacy; la scară noastră, acest lucru se traduce în zeci de milioane de dolari în economii anuale la utilități. În al treilea rând, și adesea subapreciat, DLC menține siliciul la temperaturi mai scăzute și mai stabile, ceea ce conservă ratele de ceas susținute pe parcursul lungilor sesiuni de antrenament și prelungește durata de viață utilă a hardware-ului. Acest ultim punct contează enorm atunci când sunteți responsabil pentru un activ de șase ani.

În ceea ce privește UEC: specificația Ultra Ethernet Consortium, care a fost fondată de AMD și a ajuns la 1.0 în 2025, ne oferă o fabrică deschisă, cu siliciu de comerț, care îndeplinește sau depășește InfiniBand pe metricile care contează cu adevărat pentru antrenamentul distribuit. Povestea costurilor este structurală. Ethernet are o jumătate de duzină de furnizori de siliciu de comerț care concurează pe preț, în comparație cu o alternativă cu o singură sursă care are un premiu bine documentat. Pentru un site de 100MW, alegerea rețelei UEC în locul unei fabrici proprietare este de obicei o decizie de capital de nouă cifre, iar avantajele operaționale se acumulează, deoarece inginerii noștri de rețea deja cunosc Ethernet.

Împreună, aceste alegeri ne permit să oferim o economie de antrenament mai bună decât norii legacy. Clienții noștri văd FLOPs efective mai mari pe dolar, timpi de pas mai previzibili pentru joburi mari și o pistă clară de scalare a modelelor. Pentru noi, acestea înseamnă o structură de costuri mai defensivă și flexibilitatea de a oferi tarife concurențiale.

Puteti să împărtășiți exemple de modul în care clienții utilizează TensorWave pentru a antrena modele de inteligență artificială la scară largă?

Clienții TensorWave au nevoie de calcul de inteligență artificială de înaltă performanță, fără penurie de GPU, fără blocaj al furnizorilor sau costuri care nu pot fi controlate. TensorWave oferă un nor exclusiv AMD – deschis, optimizat pentru memorie și gata de producție, ceea ce oferă echipelor infrastructură de inteligență artificială scalabilă, accesibilă, flexibilă și eficientă din punct de vedere al costurilor.

De exemplu, Modular a ales să ruleze stiva sa de inferență MAX pe infrastructura de calcul AMD a TensorWave, deoarece TensorWave oferă o economie de cost-performance semnificativ mai bună pentru inferența de inteligență artificială la scară largă. Prin rularea stivei MAX a Modular pe calculul AMD al TensorWave, aceștia ating până la 70% cost pe milion de tokeni mai mic, 57% timp de parcurs mai rapid și costuri totale mai mici decât alte stive de GPU.

Cu dominanța continuă a Nvidia, unde vedeți cele mai mari oportunități pentru competitori precum TensorWave?

Într-un spațiu de calcul de inteligență artificială dominat de câțiva jucători importanți, cele mai mari provocări sunt atingerea vitezei de piață, livrarea celei mai recente tehnologii și oferirea unui suport excepțional. Hiperscaleratorii oferă adesea o gamă largă de opțiuni, dar luptă pentru a oferi focusul sau îndrumarea personalizată de care clienții au nevoie. Pentru a străpunge acest spațiu dominat, TensorWave se concentrează pe punctele noastre forte, în timp ce colaborăm pentru a oferi cea mai bună tehnologie posibilă și asigurându-ne că clienții au opțiuni alternative.

Cele mai mari oportunități pentru competitorii dominanței NVIDIA în infrastructura de inteligență artificială sunt în ecosistemele deschise și în memoria. Ecosistemele deschise elimină blocajul la fiecare nivel (hardware, interconectare și software). În plus, memoria, împreună cu antrenamentul și inferența optimizate pentru rețea, inversează curba costurilor.

Privind în următorii cinci ani, cum vă imaginați viitorul infrastructurii de inteligență artificială și rolul TensorWave în acesta?

De-a lungul anilor, obiectivul în infrastructura de inteligență artificială a fost să o facă bună, stabilă și ușor de utilizat. Următoarea fază va fi despre ceea ce puteți livra pe această bază – servicii gestionate, Inteligență Artificială ca Serviciu, orice ajută clienții să implementeze și să scaleze mai ușor.

Suntem la începutul unei transformări majore. Tehnologia de inteligență artificială continuă să avanseze, iar alternative precum AMD devin din ce în ce mai viabile. Pe măsură ce se întâmplă acest lucru, clienții vor deveni mai confortabili cu implementarea lor la scară, iar întregul ecosistem va începe să se deschidă și să crească.

Mulțumim pentru acest interviu minunat, oricine dorește să afle mai multe despre această companie inovatoare de infrastructură de inteligență artificială ar trebui să viziteze TensorWave.

Antoine este un lider vizionar și partener fondator al Unite.AI, condus de o pasiune neclintita pentru a da forma și a promova viitorul inteligenței artificiale și al roboticii. Un antreprenor serial, el crede că inteligența artificială va fi la fel de disruptivă pentru societate ca și electricitatea, și este adesea prins vorbind cu entuziasm despre potențialul tehnologiilor disruptive și al inteligenței artificiale generale.

Ca futurist, el este dedicat explorării modului în care aceste inovații vor modela lumea noastră. În plus, el este fondatorul Securities.io, o platformă axată pe investiții în tehnologii de ultimă generație care redefinesc viitorul și reshapă întregi sectoare.