Інтерв’ю
Piotr Tomasik, співзасновник і президент TensorWave – Серія інтерв’ю

Piotr Tomasik, співзасновник і президент TensorWave, є ветераном технологійного підприємництва та виконавчим директором інфраструктури штучного інтелекту з більш ніж двома десятилітнями досвіду, що охоплює штучний інтелект, SaaS, хмарні обчислення, фінтех та економіку творців. До того, як співзасновати TensorWave у 2023 році, він співзаснував Influential, платформу маркетингу інфлюенсерів, яка пізніше була придбана Publicis за приблизно 500 мільйонів доларів, де він обіймав посаду технічного директора, перш ніж перейти на посаду радника.
На протяжоку своєї кар’єри Томасік також заснував або очолював компанії, включаючи Lets Rolo, On Guard Data та ActiveSide, а також обіймав керівні технічні посади в CARD.com та Marker Trax. Окрім своїх оперативних ролей, він є генеральним партнером у 1864 Fund та співзасновником StartUp Vegas, де він активно підтримує екосистему стартапів у Лас-Вегасі та нові технологічні таланти. Як випускник комп’ютерних наук Університету Невади у Лас-Вегасі та визнаний лідер технологій, Томасік став відомим тим, що допоміг позиціонувати TensorWave як швидко зростаючу компанію інфраструктури штучного інтелекту, орієнтовану на великомасштабні хмарні платформи GPU, що працюють на прискорювачах AMD.
TensorWave є компанією інфраструктури штучного інтелекту, орієнтованою на надання високопродуктивних хмарних обчислень, що працюють на GPU AMD, позиціонуючи себе як альтернативу більш закритим екосистемам штучного інтелекту. Заснована у 2023 році та розташована у Лас-Вегасі, компанія будує великомасштабні кластери GPU, оптимізовані для навчання та розгортання передових моделей штучного інтелекту, з акцентом на продуктивності, гнучкості та ефективності витрат. Використовуючи відкриті апаратне та програмне забезпечення, TensorWave спрямована на розширення доступу до потужних ресурсів обчислень штучного інтелекту для підприємств, дослідників та розробників, забезпечуючи масштабовані робочі процеси штучного інтелекту без обмежень традиційного блокування постачальників.
НVIDIA домінує на більшості ринку GPU – чому ви вирішили повністю зайнятися AMD, і які переваги це дає TensorWave та її клієнтам?
Після запуску ChatGPT попит на штучний інтелект різко зріс. GPU швидко розійшлися, і NVIDIA була майже єдиним варіантом, якщо ви могли його придбати, і якщо ви могли собі це дозволити. Ця нестача спровокувала великий інтерес до альтернатив. Тепер, коли ми пройшли початковий ажіотаж, існує реальна можливість викликати домінування NVIDIA з допомогою рішень, які є доступними, ефективними за витратами та легкими у використанні.
Як стартап, ми завжди приймаємо бізнес-рішення з сильним фокусом та метою. Саме тому ми не експериментували з NVIDIA, а продовжували будувати свої можливості на основі AMD. Наступна фаза нашої компанії полягає у тому, щоб використовувати ці зосереджені можливості, щоб кожен міг зайнятися чимось значимим у сфері штучного інтелекту. AMD є достойною альтернативою з реальною масштабністю виробництва, відкритим програмним забезпеченням та дорожньою картою для сучасного штучного інтелекту.
Як підхід TensorWave до інфраструктури штучного інтелекту відрізняється від традиційних постачальників хмарних GPU?
Наша диференціація проста: ми є єдиною хмарою, ексклюзивною для AMD, яка прагне відновити вибір у обчисленнях штучного інтелекту, порушити домінування NVIDIA та демократизувати доступ. Але це також про нашу етику та зобов’язання щодо надання справжньої альтернативи ринку. По-перше, ми хочемо надати виняткову інфраструктуру на основі AMD у масштабі. З цього ми розширимо свій спектр послуг – Моделі як сервіс, Штучний інтелект як сервіс, роблячи все простішим.
Як хмара, ексклюзивна для AMD, ми маємо програмний досвід, створений спеціально для AMD з самого початку. Цей фокус дозволяє нам оптимізувати силікон, мережу та програмне забезпечення з кінця в кінець, забезпечуючи, щоб команди могли масштабуватися, коли їм це потрібно.
Яка роль стратегічного партнерства з AMD грає у зростанні та диференціації TensorWave?
Це фундаментально. AMD інвестувала в TensorWave, запросила нас до запуску MI300X Instinct, і ми продовжимо тісно співпрацювати над апаратним та програмним забезпеченням, а також зростанням екосистеми. Бути хмарою, ексклюзивною для AMD, означає, що ми можемо рухатися швидко з кожним поколінням Instinct, і служити живим лабораторним майданчиком, який пропонує, у масштабі, альтернативи на нашому ринку. Наша диференціація, заснована лише на AMD, дозволила нам працювати з темпом, який не є так легко досяжним на ринку інфраструктури штучного інтелекту. Партнерство з AMD дозволяє нам швидко закрити прогалини, випустити перші нові GPU та опублікувати реальну продуктивність у масштабі.
Доступ до GPU залишається великою перешкодою для команд штучного інтелекту – як TensorWave подолає цю проблему?
Ми подолаємо ці перешкоди спочатку через незалежність постачання: будучи заснованими на AMD, ми уникнемо найбільшої нестачі виробників мікрочипів, і передамо доступність нашим клієнтам. Незалежність постачання через AMD гарантує, що наші клієнти не будуть застрягнути в черзі, як усі інші.
Прогалини в екосистемі інфраструктури штучного інтелекту існують, оскільки багато гравців будують подібні рішення, створюючи багато перекриття. Це часто відбувається через відсутність усвідомлення того, що відбувається на ринку. Перший крок до закриття цих прогалин полягає в розумінні того, хто робить що, де існують можливості для співпраці, де конкуренція може стимулювати інновації, і в кінцевому підсумку, як екосистема може покращитися в цілому. Однією з унікальних прогалин на ринку інфраструктури штучного інтелекту є потужність; навіть якщо GPU доступні, часто немає достатньої енергії для підтримки зростаючої кількості застосунків штучного інтелекту. Рішення цих проблем з ресурсами є нашим ключем до забезпечення сталого зростання та інновацій у майбутньому.
Як такі функції, як прямое охолодження рідиною та мережеві з’єднання UEC (Universal Ethernet Consortium), підвищують продуктивність та ефективність витрат?
Прямое охолодження рідиною та мережеві з’єднання UEC є фундаментальними для того, що робить сучасну хмару штучного інтелекту економічно життєздатною у масштабі, і обидва є центральними для того, як ми спроектували TensorWave.
Відносно DLC: нові покоління прискорювачів, такі як MI355X та MI455X від AMD, працюють у термічних оболонках, які повітря просто не може обробляти ефективно. Ми говоримо про 1400 Вт+ ТДП на один GPU. Прямое охолодження рідиною видаляє тепло в джерелі через холодну пластину або конструкцію занурення, що робить три речі для наших клієнтів. По-перше, воно дозволяє суттєво збільшити щільність стійки, 120-300 кВт+ на стійку замість 30-40 кВт, що стискає площу та скорочує витрати на оплату за мегават та розподілення енергії. По-друге, воно рухає PUE до 1,1, порівняно з 1,4-1,5 для традиційних повітряно-охолоджуваних об’єктів; на нашому рівні це перекладується у десятки мільйонів доларів щорічних економій на комунальних послугах. По-третє, і часто недооцінюється, DLC утримує силікон при нижчих, більш стабільних температурах сполучення, що зберігає тривалі тактові частоти під час довгих тренувальних запусків та подовжує термін служби апаратного забезпечення. Останній пункт має величезне значення, коли ви фінансуєте шестирічний актив.
Відносно UEC: специфікація Ultra Ethernet Consortium, яку AMD допомогла заснувати та яка досягла 1,0 у 2025 році, надає нам відкриту, мерчантську мережеву тканину, яка відповідає або перевершує InfiniBand за метриками, які насправді важливі для розподіленого навчання. Затримка на колективах, ефективна смуга пропускання під час змагання та поведінка масштабування за порогом у 100 000 GPU. Історія витрат є структурною. Ethernet має півдюжини достойних мерчантських виробників силікону, які конкурують за ціну, на відміну від альтернативи з одним джерелом, яке несе добре задокументований преміум. Для сайту потужністю 100 МВт вибір мережевого з’єднання UEC замість пропрієтарної тканини зазвичай є дев’ятисильною капітальною витратою, а операційні переваги складні, оскільки наші інженери мережі вже знають Ethernet.
Взяті разом, ці вибори дозволяють нам надавати кращу економіку навчання, ніж традиційні хмари. Клієнти бачать вищу ефективну продуктивність FLOPs за долар, більш передбачувані часи кроків на великих завданнях та чітку смугу, коли моделі масштабуються. Для нас вони означають більш захищену структуру витрат та гнучкість для надання справжніх конкурентних тарифних планів.
Чи можете ви поділитися прикладами того, як клієнти використовують TensorWave для навчання великомасштабних моделей штучного інтелекту?
Клієнти TensorWave потребують високопродуктивних обчислень штучного інтелекту без нестачі GPU, блокування постачальників чи неконтрольованих витрат. TensorWave пропонує ексклюзивну хмару AMD – відкриту, оптимізовану за пам’яттю та готову до виробництва, що надає командам масштабовану інфраструктуру штучного інтелекту, яка є доступною, гнучкою та ефективною за витратами.
Наприклад, Modular вирішила запустити свій стек інференції MAX на інфраструктурі GPU AMD TensorWave, оскільки TensorWave пропонує значно кращу економіку витрат та продуктивності для великомасштабної інференції штучного інтелекту. Запускаючи MAX на комп’ютерній техніці AMD TensorWave, вони досягають нижчих витрат на мільйон токенів до 70%, швидшої продуктивності на 57% та менших загальних витрат порівняно з іншими стеками GPU.
З продовжуючою домінацією NVIDIA, де ви бачите найбільші можливості для конкурентів, таких як TensorWave?
У сфері обчислень штучного інтелекту, яка домінується кількома великими гравцями, найбільшими викликами є досягнення швидкості виходу на ринок, надання останніх технологій та забезпечення виняткової підтримки. Гіперскейлери часто пропонують широкий спектр варіантів, але борються з тим, щоб надати фокус або персоналізовану допомогу, якої потребують клієнти. Щоб пробитися через цю домінувану сферу, TensorWave зосереджується на своїх сильних сторонах, одночасно співпрацюючи, щоб надати найкращу технологію, та забезпечуючи, щоб клієнти мали альтернативні варіанти.
Дві найбільші можливості для конкурентів домінування інфраструктури штучного інтелекту NVIDIA знаходяться в відкритих екосистемах та пам’яті. Відкриті екосистеми ліквідують блокування на кожному рівні (апаратне забезпечення, мережеві з’єднання та програмне забезпечення). Крім того, пам’ять у поєднанні з мережевим навчанням/інференцією перевертає криву витрат.
Оглядаючись на п’ять років вперед, як ви бачите майбутнє інфраструктури штучного інтелекту та роль TensorWave у ньому?
На роки майбутнього мета в інфраструктурі штучного інтелекту полягала в тому, щоб зробити її доброю, стабільною та легкою у використанні. Наступна фаза буде полягати в тому, що ви можете надати на вершині цього – сервісні послуги, Штучний інтелект як сервіс, все, що допоможе клієнтам розгортати та масштабувати більш легко.
Ми находимося на початку великої трансформації. Технологія штучного інтелекту продовжує розвиватися, а альтернативи, такі як AMD, стають дедалі більш життєздатними. Коли це відбувається, клієнти стануть більш комфортними, розгортаючи їх у масштабі, і вся екосистема почне відкритися та розвиватися.
Дякуємо за велике інтерв’ю, кожен, хто хоче дізнатися більше про цю інноваційну компанію інфраструктури штучного інтелекту, повинен відвідати TensorWave.












