Wawancara
Piotr Tomasik, Co-Founder dan Presiden TensorWave – Seri Wawancara

Piotr Tomasik, Co-Founder dan Presiden TensorWave, adalah seorang wirausaha teknologi veteran dan eksekutif infrastruktur AI dengan lebih dari dua dekade pengalaman yang meliputi AI, SaaS, komputasi awan, fintech, dan ekonomi kreator. Sebelum menjadi co-founder TensorWave pada 2023, ia menjadi co-founder Influential, sebuah platform pemasaran influencer berbasis AI yang kemudian diakuisisi oleh Publicis seharga sekitar $500 juta, di mana ia menjabat sebagai CTO sebelum beralih ke peran penasihat.
Sepanjang karirnya, Tomasik juga telah mendirikan atau memimpin perusahaan seperti Lets Rolo, On Guard Data, dan ActiveSide, sambil memegang posisi teknologi senior di CARD.com dan Marker Trax. Selain peran operasionalnya, ia adalah Mitra Umum di 1864 Fund dan co-founder StartUp Vegas, di mana ia secara aktif mendukung ekosistem startup Las Vegas dan bakat teknologi yang muncul. Sebagai lulusan ilmu komputer UNLV dan pemimpin teknologi yang diakui, Tomasik telah menjadi dikenal karena membantu memposisikan TensorWave sebagai perusahaan infrastruktur komputasi AI yang tumbuh cepat yang fokus pada platform awan GPU skala besar yang ditenagai oleh akselerator AMD.
TensorWave adalah perusahaan infrastruktur AI yang fokus pada menyediakan komputasi awan berkinerja tinggi yang ditenagai oleh GPU AMD, memposisikan diri sebagai alternatif dari ekosistem AI yang lebih tertutup. Didirikan pada 2023 dan berkantor pusat di Las Vegas, perusahaan ini membangun klaster GPU skala besar yang dioptimalkan untuk pelatihan dan penerapan model AI lanjutan, dengan penekanan pada kinerja, fleksibilitas, dan efisiensi biaya. Dengan memanfaatkan ekosistem perangkat lunak dan perangkat keras yang terbuka, TensorWave bertujuan untuk memperluas akses ke sumber daya komputasi AI yang kuat untuk perusahaan, peneliti, dan pengembang, memungkinkan beban kerja AI yang dapat diskalakan tanpa keterbatasan kunci vendor tradisional.
Nvidia mendominasi sebagian besar pasar GPU—mengapa Anda memutuskan untuk fokus pada AMD, dan apa keuntungan yang diberikan oleh pilihan ini kepada TensorWave dan pelanggannya?
Setelah peluncuran ChatGPT, permintaan AI melonjak. GPU cepat terjual habis, dan NVIDIA hampir menjadi satu-satunya pilihan jika Anda bisa mendapatkannya, dan jika Anda bisa menangani biayanya. Kekurangan itu memicu minat besar pada alternatif. Sekarang bahwa kita telah melewati histeria awal, ada kesempatan nyata untuk menantang dominasi Nvidia dengan solusi yang dapat diakses, efisien biaya, dan mudah digunakan.
Sebagai startup, kita selalu membuat keputusan bisnis dengan fokus dan tujuan yang kuat. Itulah mengapa kita tidak bereksperimen dengan Nvidia, dan kita terus membangun kemampuan kita di AMD. Fase berikutnya dari perusahaan kita adalah tentang memanfaatkan kemampuan yang terfokus ini sehingga siapa pun dapat melompat dan melakukan sesuatu yang berarti dengan AI. AMD adalah alternatif yang kredibel dengan skala manufaktur nyata, postur perangkat lunak yang terbuka, dan peta jalan memori-terlebih-dahulu untuk AI modern.
Bagaimana pendekatan TensorWave terhadap infrastruktur AI berbeda dari penyedia cloud GPU tradisional?
Perbedaan kita sangat sederhana: kita adalah cloud AMD eksklusif skala besar, yang bertujuan untuk mengembalikan pilihan dalam komputasi AI, memecahkan dominasi Nvidia, dan mendemokratisasikan akses. Tapi itu juga tentang etos dan komitmen kita untuk membawa alternatif yang sebenarnya ke pasar. Pertama dan terutama, kita ingin menyediakan infrastruktur AMD yang luar biasa di skala besar. Dari sana, kita akan memperluas ke layanan kelas atas di atasnya– Model-as-a-Service, AI-as-a-Service, membuat semuanya lebih sederhana.
Sebagai cloud AMD eksklusif, kita memiliki pengalaman perangkat lunak yang dibangun khusus untuk AMD sejak hari pertama. Fokus ini memungkinkan kita untuk mengoptimalkan silikon, jaringan, dan perangkat lunak dari ujung ke ujung, memastikan bahwa tim dapat diskalakan ketika mereka membutuhkannya.
Apa peran kemitraan strategis dengan AMD dalam pertumbuhan dan diferensiasi TensorWave?
Ini sangat mendasar. AMD berinvestasi di TensorWave, mengundang kita ke peluncuran MI300X Instinct, dan kita terus berkolaborasi erat pada perangkat lunak, pengaktifan perangkat lunak, dan pertumbuhan ekosistem. Menjadi cloud AMD eksklusif berarti kita dapat bergerak cepat dengan setiap generasi Instinct, dan berfungsi sebagai laboratorium hidup yang menyediakan, skala besar, alternatif dalam pasar kita. Diferensiasi AMD-eksklusif kita telah memungkinkan kita bekerja dengan kecepatan yang tidak dapat dicapai di pasar infrastruktur AI. Kemitraan mereka memungkinkan kita untuk menutup kesenjangan dengan cepat, mengirimkan pertama pada GPU baru, dan menerbitkan kinerja nyata di skala besar.
Akses GPU masih menjadi bottleneck besar untuk tim AI—bagaimana TensorWave menangani tantangan ini?
Kita menangani bottleneck ini pertama melalui kemandirian pasokan: dengan membangun di atas AMD, kita menghindari keterbatasan pasokan yang parah dari produsen chip lain, dan meneruskan ketersediaan kepada pelanggan. Kemandirian pasokan melalui AMD memastikan bahwa pelanggan kita tidak terjebak menunggu di antrean yang sama dengan orang lain.
Kesenjangan dalam ekosistem infrastruktur AI ada karena banyak pemain membangun solusi yang sama, menciptakan banyak tumpang tindih. Ini sering berasal dari kurangnya kesadaran tentang apa yang terjadi di seluruh pasar. Langkah pertama untuk menutup kesenjangan ini adalah memahami siapa yang melakukan apa, di mana ada peluang untuk kolaborasi, di mana persaingan dapat memacu inovasi, dan akhirnya, bagaimana ekosistem dapat ditingkatkan sebagai satu kesatuan. Salah satu kesenjangan unik di pasar infrastruktur AI adalah daya; bahkan jika GPU tersedia, seringkali tidak ada cukup energi untuk mendukung jumlah aplikasi AI yang meningkat. Menyelesaikan tantangan sumber daya ini adalah kunci kita untuk memungkinkan pertumbuhan dan inovasi yang berkelanjutan di masa depan.
Bagaimana fitur seperti pendinginan cair langsung dan jaringan UEC-siap (Universal Ethernet Consortium) meningkatkan kinerja dan efisiensi biaya?
Pendinginan cair langsung dan jaringan UEC-siap adalah fondasi dari apa yang membuat cloud AI modern layak secara ekonomi di skala besar, dan keduanya adalah pusat dari bagaimana kita merancang TensorWave.
Tentang DLC: generasi akselerator terbaru, AMD MI355X dan MI455X, berjalan pada amplop termal yang udara tidak dapat menanganinya dengan efisien. Kita berbicara tentang 1400W+ TDP per GPU. Pendinginan cair langsung menghilangkan panas dari sumbernya melalui desain pelat dingin atau imersi, yang melakukan tiga hal untuk pelanggan kita. Pertama, ini memungkinkan kepadatan rak yang jauh lebih tinggi, 120-300kW+ per rak bukan 30 hingga 40kW, yang mengompresi jejak kaki dan memotong biaya megawatt real estat dan distribusi daya. Kedua, ini mendorong PUE menuju 1,1, versus 1,4 hingga 1,5 untuk fasilitas yang didinginkan udara; pada skala kita, itu diterjemahkan menjadi puluhan juta dolar dalam penghematan utilitas tahunan. Ketiga, dan sering kali kurang dihargai, DLC menjaga silikon pada suhu junction yang lebih rendah dan lebih stabil, yang mempertahankan laju clock yang berkelanjutan selama pelatihan panjang dan memperpanjang umur panjang perangkat keras. Poin terakhir sangat penting ketika Anda menanggung aset selama enam tahun.
Tentang UEC: spesifikasi Ultra Ethernet Consortium, yang AMD membantu mendirikan dan yang mencapai 1,0 pada 2025, memberi kita kain yang terbuka, merchant-silicon yang memenuhi atau melebihi InfiniBand pada metrik yang benar-benar penting untuk pelatihan terdistribusi. Keterlambatan ekor pada kolektif, bandwidth efektif di bawah kontensi, dan perilaku penskalaan melewati ambang batas 100.000 GPU. Cerita biaya bersifat struktural. Ethernet memiliki setengah lusin vendor silikon merchant yang kredibel yang bersaing pada harga, versus alternatif satu-sumber yang membawa premi yang terdokumentasi dengan baik. Untuk situs 100MW, memilih jaringan UEC-siap daripada kain proprietary adalah keputusan CAPEX sembilan angka, dan keuntungan operasionalnya berkompilasi karena insinyur jaringan kita sudah mengetahui Ethernet.
Keduanya memungkinkan kita untuk menyediakan ekonomi pelatihan yang lebih baik daripada cloud warisan. Pelanggan melihat FLOPs efektif per dolar yang lebih tinggi, waktu langkah yang lebih dapat diprediksi pada pekerjaan besar, dan landasan yang jelas saat model diskalakan. Untuk kita, mereka berarti struktur biaya yang lebih defensif dan fleksibilitas untuk menawarkan kartu tarif yang benar-benar kompetitif.
Bisakah Anda membagikan contoh tentang bagaimana pelanggan menggunakan TensorWave untuk melatih model AI skala besar?
Pelanggan TensorWave membutuhkan komputasi AI berkinerja tinggi tanpa kekurangan GPU, kunci vendor, atau biaya yang tidak terkendali. TensorWave menyediakan cloud AMD eksklusif – terbuka, dioptimalkan memori, dan siap produksi, yang memberikan tim infrastruktur AI yang dapat diskalakan yang dapat diakses, fleksibel, dan efisien biaya.
Sebagai contoh, Modular memilih untuk menjalankan tumpukan inferensi MAX pada infrastruktur GPU AMD TensorWave karena TensorWave menyediakan ekonomi kinerja biaya yang jauh lebih baik untuk inferensi AI skala besar. Dengan menjalankan MAX Modular pada komputasi AMD TensorWave, mereka mencapai biaya per juta token yang 70% lebih rendah, throughput 57% lebih cepat, dan biaya total yang lebih rendah daripada tumpukan GPU lain.
Dengan dominasi Nvidia yang berkelanjutan, di mana Anda melihat peluang terbesar untuk tantangan seperti TensorWave?
Di ruang komputasi AI yang didominasi oleh beberapa pemain besar, tantangan terbesar adalah mencapai kecepatan pasar, menyediakan teknologi terbaru, dan menyediakan dukungan yang luar biasa. Hyperscalers sering menawarkan berbagai pilihan, tetapi berjuang untuk menyediakan fokus atau panduan yang dipersonalisasi yang dibutuhkan pelanggan. Untuk menembus ruang yang didominasi ini, TensorWave fokus pada kekuatan kita, sambil berkolaborasi untuk menyediakan teknologi terbaik yang mungkin dan memastikan pelanggan memiliki pilihan alternatif.
Dua peluang terbesar untuk tantangan dominasi infrastruktur AI Nvidia adalah dalam ekosistem terbuka dan memori. Ekosistem terbuka menghilangkan kunci pada setiap lapisan (perangkat keras, interkoneksi, dan perangkat lunak). Selain itu, memori yang dipasangkan dengan pelatihan/jalan yang dioptimalkan jaringan membalik kurva biaya.
Melihat lima tahun ke depan, bagaimana Anda membayangkan masa depan infrastruktur AI dan peran TensorWave di dalamnya?
Selama bertahun-tahun, tujuan dalam infrastruktur AI adalah membuatnya baik, membuatnya stabil, dan membuatnya mudah digunakan. Fase berikutnya akan tentang apa yang dapat Anda sediakan di atas itu—layanan yang dikelola, AI-as-a-Service, apa pun yang membantu pelanggan mengirim dan menskalakan lebih mudah.
Kita berada di awal transformasi besar. Teknologi AI terus berkembang, dan alternatif seperti AMD menjadi semakin layak. Ketika itu terjadi, pelanggan akan menjadi lebih nyaman menggunakannya pada skala besar, dan seluruh ekosistem akan mulai terbuka dan tumbuh.
Terima kasih atas wawancara yang luar biasa, siapa pun yang ingin mempelajari lebih lanjut tentang perusahaan infrastruktur AI inovatif ini harus mengunjungi TensorWave.












