Connect with us

Piotr Tomasik, TensorWaven co-perustaja ja puheenjohtaja – Haastattelusarja

Haastattelut

Piotr Tomasik, TensorWaven co-perustaja ja puheenjohtaja – Haastattelusarja

mm

Piotr Tomasik, TensorWaven co-perustaja ja puheenjohtaja, on kokenut teknologiayrittäjä ja AI-infrastruktuurin johtaja, jolla on yli kaksi vuosikymmentä kokemusta AI:sta, SaaS:sta, pilvilaskennasta, fintech:stä ja luomistyön taloudesta. Ennen TensorWaven perustamista vuonna 2023 hän perusti Influentialin, AI-pohjaisen vaikuttajamarkkinointialustan, joka myytiin myöhemmin Publicisille noin 500 miljoonalla dollarilla, ja toimi siellä CTO:na ennen siirtymistään neuvonantajaksi.

Urallaan Tomasik on perustanut tai johtanut useita yrityksiä, kuten Lets Rolo, On Guard Data ja ActiveSide, ja toiminut senioriteknologiatehtävissä CARD.comissa ja Marker Traxissa. Lisäksi hän on 1864 Fundin yleispartneri ja StartUp Vegasin co-perustaja, jossa hän tukee aktiivisesti Las Vegasin startup-ekosysteemiä ja nousevia teknologia-alan lahjakkuuksia. UNLV:n tietojenkäsittelytieteen valmistunut ja tunnustettu teknologiajohtaja Tomasik on saanut mainetta TensorWaven nopeasti kasvavan AI-laskennan infrastruktuuriyhtiönä, joka on keskittynyt suurten mittakaavojen GPU-pilviin, jotka perustuvat AMD:n kiihdyttimiin.

TensorWave on AI-infrastruktuurin yritys, joka on keskittynyt tarjoamaan korkean suorituskyvyn pilvilaskentaa, joka perustuu AMD:n GPU:hin, ja asettaa itsensä vaihtoehtona suljetummille AI-ekosysteemeille. Perustettu vuonna 2023 ja pääkonttori Las Vegasissa, yritys rakentaa suurten mittakaavojen GPU-klustereita, jotka on optimoitu edistyneiden AI-mallien kouluttamiseen ja käyttöön, ja korostaa suorituskykyä, joustavuutta ja kustannustehokkuutta. Hyödyntämällä avoimia laitteisto- ja ohjelmisto-ekosysteemejä, TensorWave pyrkii laajentamaan pääsyn tehokkaisiin AI-laskenta-resursseihin yrityksille, tutkijoille ja kehittäjille, mahdollistaen skaalautuvat AI-kuormat ilman perinteisten toimittajien lukituksen rajoituksia.

Nvidia hallitsee suurinta osaa GPU-markkinaa – miksi päädyit valitsemaan AMD:n, ja mitkä ovat tämän valinnan edut TensorWavelle ja sen asiakkaille?

ChatGPT:n julkaisun jälkeen AI:n kysyntä kasvoi räjähdysmäisesti. GPU:t menivät nopeasti kaupaksi, ja NVIDIA oli käytännössä ainoa vaihtoehto, jos se oli saatavilla, ja jos se oli taloudellisesti kannattavaa. Tämä pula herätti suuren kiinnostuksen vaihtoehtoihin. Nyt, kun olemme ohittaneet alkuvaiheen hypeilyn, on oikea tilaisuus haastaa Nvidian valta-asemaa ratkaisuilla, jotka ovat saatavilla, kustannustehokkaita ja helppokäyttöisiä.

Startup-yrityksenä olemme aina tehneet liiketoimintapäätöksiä vahvalla fokuksella ja tarkoituksella. Siksi emme ole kokeilleet Nvidian tuotteita, vaan olemme jatkaneet kykyjemme kehittämistä AMD:n ympärillä. Yrityksemme seuraava vaihe on siinä, että keskitymme näihin keskittyneisiin kykyihimme, jotta kuka tahansa voi osallistua ja tehdä jotain merkittävää AI:n kanssa. AMD on uskottava vaihtoehto, jolla on todellinen valmistusaste, avoin ohjelmistopostura ja muistiensidonnainen tiekartta modernille AI:lle.

Miten TensorWaven lähestymistapa AI-infrastruktuuriin eroaa perinteisistä GPU-pilvi-palveluntarjoajista?

Eroamme on yksinkertainen: olemme ainoa AMD:n eksklusiivinen pilvi suuressa mittakaavassa, ja pyrimme palauttamaan valinnan AI-laskentaan, rikkomaan Nvidian valta-aseman ja demokratisoimaan pääsyn. Mutta se on myös meidän etoomme ja sitoutumisemme tuomaan todellinen vaihtoehto markkinoille. Ensisijaisesti haluamme tarjota poikkeuksellista AMD-pohjaista infrastruktuuria suuressa mittakaavassa. Siitä lähtien laajennamme huipputason palveluihin sen päällä – Mallit-palveluna, AI-palveluna, ja teemme kaiken helpommaksi.

Koko AMD-pilvi olemme saaneet ohjelmistokokemusta, joka on suunniteltu nimenomaan AMD:lle alusta alkaen. Tämä fokus mahdollistaa meidän optimoida piiri, verkkotekniikkaa ja ohjelmistoa päästä päähän, varmistaen, että tiimit voivat skaalata, kun he tarvitsevat.

Mikä on strategisen kumppanuuden AMD:n kanssa rooli TensorWaven kasvussa ja erottuvuudessa?

Se on perustava. AMD on investoinut TensorWaveen, kutsunut meidät MI300X Instinct -julkaisuun, ja jatkamme tiivistä yhteistyötä laitteiston, ohjelmistojen mahdollistamisen ja ekosysteemin kasvun suhteen. Olemme kaikki-AMD-pilvi, joten voimme liikkua nopeasti jokaisen Instinct-sukupolven kanssa, ja toimia elävänä laboratoriona, joka tarjoaa vaihtoehtoja markkinoidemme mittakaavassa. Yksinomainen AMD-eroamme on mahdollistanut meidän työskennellä vauhdilla, joka ei ole aivan saavutettavissa AI-infrastruktuurin markkinassa. Heidän kumppanuutensa antaa meille mahdollisuuden täyttää aukot nopeasti, toimittaa ensin uusille GPU:ille ja julkaista todellista suorituskykyä suuressa mittakaavassa.

GPU-pääsy on edelleen suuri pullonkaula AI-tiimille – miten TensorWave ratkaisee tämän haasteen?

Ratkaisemme tämän haasteen ensisijaisesti toimittamalla toimitusriippumattomuutta: rakentamalla AMD:lle, vältämme muiden prosessorinvalmistajien toimitusrajoituksia, ja välitämme saatavuuden asiakkaillemme.

AI-infrastruktuurin ekosysteemissä on aukkoja, koska moni toimija rakentaa samankaltaisia ratkaisuja, mikä luo paljon päällekkäisyyttä. Tämä johtuu usein tietoisuuden puutteesta siitä, mitä markkinalla tapahtuu. Ensimmäinen askel näiden aukkojen sulkemiseen on ymmärtää, kuka tekee mitä, missä on mahdollisuuksia yhteistyölle, missä kilpailu voi ajaa innovaatiota, ja lopulta, miten ekosysteemi voi parantua kokonaisuutena. Yksi ainutlaatuinen aukko AI-infrastruktuurin markkinassa on teho; vaikka GPU:t ovat saatavilla, usein ei ole riittävästi energiaa tukemaan kasvavaa määrää AI-sovelluksia. Nämä resurssien haasteiden ratkaiseminen on avain kestävään kasvuun ja innovaatioon tulevina vuosina.

Miten ominaisuudet, kuten suora nestejäähdytys ja UEC-valmis verkkotekniikka (Universal Ethernet Consortium), parantavat suorituskykyä ja kustannustehokkuutta?

Suora nestejäähdytys ja UEC-valmis verkkotekniikka ovat perustavanlaatuisia modernin AI-pilven taloudellisen kannattavuuden kannalta suuressa mittakaavassa, ja molemmat ovat keskeisiä siinä, miten olemme suunnitelleet TensorWaven.

Suorasta nestejäähdytyksestä: uusimmat kiihdyttimien sukupolvet, AMD:n MI355X ja MI455X, toimivat lämpötiloissa, joita ilma ei voi käsitellä tehokkaasti. Puhumme 1400W+:n tehoista per GPU. Suora nestejäähdytys poistaa lämmön lähteestä kylmälevy- tai upotusmuotoisilla suunnitelmailla, mikä tekee kolme asiaa asiakkaillemme. Ensinnäkin se mahdollistaa olennaisesti suuremman hyllytyksen, 120-300 kW+:n per hylly, sen sijaan, että 30-40 kW, mikä pakkaa jalanjäljen ja leikkaa megawatin kiinteistö- ja sähköjakelukustannuksia. Toiseksi se ajaa PUE:n kohti 1,1, verrattuna 1,4-1,5 perinteisille ilmajäähdytetyille laitoksille; meidän mittakaavassamme se kääntyy kymmeniin miljooniin dollareihin vuosittaisissa käyttökustannuksissa. Kolmanneksi, ja usein aliarvostettuna, nestejäähdytys pitää piiriä alemmilla, vakaammilla joukkoliittimien lämpötiloilla, mikä säilyttää pitkien koulutusjaksojen jatkuvat kellotaajuudet ja pidentää laitteiston käyttöikää. Viimeinen pointti on merkittävä, kun olet takausrahaston kuuden vuoden ajanjaksolle.

UEC:stä: Ultra Ethernet Consortium -määritys, johon AMD on osallistunut ja joka saavutti 1.0:n vuonna 2025, antaa meille avoimen, kaupallisen piirin, joka vastaa tai ylittää InfiniBandin mitoilla, jotka ovat merkittäviä jakelujen koulutukselle. Hänennäkö- ja viivekäyttäytyminen ylittyy 100 000 GPU:n kynnyksellä. Kustannuslaskelma on rakenteellinen. Ethernetillä on puolisen tusinaa luotettavaa kaupallista piirisuunnittelijaa, jotka kilpailevat hinnasta, verrattuna yksittäiseen vaihtoehtoiseen, joka sisältää hyvin tunnetun premium-hinnan. 100 MW:n kojussa valitseminen UEC-valmiista verkkotekniikasta verrattuna omistaja-alustaan on yleensä yhden numeron CAPEX-päätös, ja operatiiviset edut kertautuvat, koska verkkotekniikkamme jo tuntevat Ethernetin.

Näiden valintojen yhdistelmä antaa meille mahdollisuuden tarjota paremmat koulutus taloudellisuus kuin perinteiset pilvet. Asiakkaat näkevät korkeamman tehokkuuden dollari kohti, nopeamman aikataulun suurilla töillä ja selkeän tien kartalle, kun mallit skaalautuvat. Meille ne tarkoittavat puolustettavampaa kustannusrakennetta ja joustavuutta tarjota todellinen kilpailukykyinen tarjous.

Voitko jakaa esimerkkejä siitä, miten asiakkaat hyödyntävät TensorWavea suurten mittakaavojen AI-mallien kouluttamiseen?

TensorWaven asiakkaat tarvitsevat korkean suorituskyvyn AI-laskentaa ilman GPU-pulaa, toimittajan lukituksen tai karkaavan kustannuksen. TensorWave tarjoaa eksklusiivisen AMD-pilven – avoimen, muistiin optimoidun ja tuotantovalmiin, joka antaa tiimille skaalautuvan AI-infrastruktuurin, joka on saatavilla, joustava ja kustannustehokas.

Esimerkiksi Modular valitsi ajamaan MAX-inferenssin TensorWaven AMD-GPU-infrastruktuurilla, koska TensorWave tarjoaa merkittävästi paremman kustannustehokkuuden suurten mittakaavojen AI-inferenssille. Ajamalla Modularin MAX:ia TensorWaven AMD-laskennassa he saavuttavat jopa 70 %:n alhaisemman kustannuksen miljoonaa tokenia kohti, 57 %:n nopeamman läpimenoajan ja vähemmän yleiskustannuksia kuin muilla GPU-pinoilla.

Millaisia ovat Nvidian jatkuva valta-aseman haastajien, kuten TensorWaven, suurimmat mahdollisuudet?

AI-laskennan tilassa, jota johtavat muutamia suuria toimijoita, suurimmat haasteet ovat nopeus markkinoille, viimeisimpien teknologioiden toimittaminen ja poikkeuksellisen tuen tarjoaminen. Hyperskalareilla on usein laaja valikoima vaihtoehtoja, mutta he kamppailevat tarjoamaan fokusta tai henkilökohtaista ohjausta, jota asiakkaat tarvitsevat. Murtamaan tätä hallitsevaa tilaa TensorWave keskittyy vahvuuksiimme, samalla kun yhteistyötä tehdään tarjoamaan paras mahdollinen teknologia ja varmistamaan, että asiakkaat ovat vaihtoehtoja.

Kaksi suurinta mahdollisuutta Nvidian AI-infrastruktuurin valta-aseman haastajille ovat avoimissa ekosysteemeissä ja muistissa. Avoimet ekosysteemit poistavat lukituksen jokaisessa kerroksessa (laitteisto, verkkotekniikka ja ohjelmisto). Lisäksi muisti yhdistettynä verkkopohjaiseen koulutukseen/inferenssiin kääntää kustannuskaavion.

Miten näet AI-infrastruktuurin tulevaisuuden ja TensorWaven roolin siinä viiden vuoden kuluttua?

Vuosiin, AI-infrastruktuurin tavoitteena oli tehdä se hyvä, vakaa ja helppokäyttöinen. Seuraava vaihe on siinä, mitä voidaan tarjota sen päällä – hallittuja palveluita, AI-palveluita, mitä tahansa, joka auttaa asiakkaita käyttämään ja skaalautumaan helpommin.

Olemme suuren muodonmuutoskohdassa. AI-teknologia jatkaa kehittymistään, ja vaihtoehtoja, kuten AMD, tulee yhä uskottavammaksi. Kun tämä tapahtuu, asiakkaat tulevat tulevat yhä mukavammaksi käyttämään niitä suuressa mittakaavassa, ja koko ekosysteemi alkaa avautua ja kasvaa.

Kiitos haastattelusta, kaikki, jotka haluavat oppia lisää tästä innovatiivisesta AI-infrastruktuurin yrityksestä, kannattaa vierailla TensorWaven sivustolla.

Antoine on visionäärinen johtaja ja Unite.AI:n perustajakumppani, jota ohjaa horjumaton intohimo muokata ja edistää tulevaisuuden tekoälyä ja robottiikkaa. Sarjayrittäjänä hän uskoo, että tekoäly tulee olemaan yhtä mullistava yhteiskunnalle kuin sähkö, ja hänestä usein kuuluu ylistyksiä mullistavien teknologioiden ja AGI:n mahdollisuuksista.
Hänen ollessaan futuristi, hän on omistautunut tutkimiseen, miten nämä innovaatiot muokkaavat maailmaamme. Lisäksi hän on Securities.io:n perustaja, joka on alusta, joka keskittyy sijoittamiseen uraauurtaviin teknologioihin, jotka määrittelevät uudelleen tulevaisuuden ja muokkaavat koko sektoreita.