Интервью
Пётр Томасик, сооснователь и президент TensorWave – Интервью

Пётр Томасик, сооснователь и президент TensorWave, является ветераном технологического предпринимательства и исполнительным директором по инфраструктуре ИИ с более чем двумя десятилетиями опыта, охватывающего ИИ, SaaS, облачные вычисления, финтех и экономику создателей. До сооснования TensorWave в 2023 году он соосновал Influential, платформу маркетинга влияния, работающую на ИИ, которая была позже приобретена Publicis за примерно 500 миллионов долларов, где он служил техническим директором, прежде чем перейти на консультационную роль.
На протяжении своей карьеры Томасик также основал или возглавлял компании, включая Lets Rolo, On Guard Data и ActiveSide, а также занимал старшие технологические должности в CARD.com и Marker Trax. Помимо своих операционных ролей, он является генеральным партнером в 1864 Fund и сооснователем StartUp Vegas, где он активно поддерживает экосистему стартапов Лас-Вегаса и появляющийся технологический талант. Выпускник компьютерных наук Университета Невады в Лас-Вегасе и признанный лидер в технологиях, Томасик стал известен тем, что помогает позиционировать TensorWave как быстро растущую компанию по инфраструктуре ИИ, ориентированную на крупномасштабные облачные платформы GPU, работающие на ускорителях AMD.
TensorWave – это компания по инфраструктуре ИИ, ориентированная на предоставление высокопроизводительных облачных вычислений, работающих на GPU AMD, позиционирующая себя как альтернатива более закрытым экосистемам ИИ. Основанная в 2023 году и имеющая штаб-квартиру в Лас-Вегасе, компания строит крупномасштабные кластеры GPU, оптимизированные для обучения и развертывания передовых моделей ИИ, с упором на производительность, гибкость и эффективность затрат. Используя открытые аппаратные и программные экосистемы, TensorWave стремится расширить доступ к мощным ресурсам вычислений ИИ для предприятий, исследователей и разработчиков, обеспечивая масштабируемые рабочие нагрузки ИИ без ограничений традиционной блокировки поставщиков.
НVIDIA доминирует на большинстве рынков GPU – почему вы решили полностью сосредоточиться на AMD, и какие преимущества дает этот выбор TensorWave и ее клиентам?
После запуска ChatGPT спрос на ИИ взлетел. GPU быстро раскупились, и NVIDIA была практически единственным вариантом, если только вы могли его получить, и если вы могли позволить себе это. Этот дефицит вызвал огромный интерес к альтернативам. Теперь, когда мы прошли первоначальный ажиотаж, есть реальная возможность бросить вызов доминированию NVIDIA с помощью решений, которые являются доступными, эффективными по затратам и легкими в использовании.
Как стартап, мы всегда принимали бизнес-решения с сильным фокусом и целью. Вот почему мы не экспериментировали с NVIDIA и продолжали развивать наши возможности на основе AMD. Следующая фаза нашей компании заключается в том, чтобы сосредоточиться на этих сосредоточенных возможностях, чтобы любой мог приступить и сделать что-то значимое с помощью ИИ. AMD – это достоверная альтернатива с реальным производственным масштабом, открытой программной позицией и дорожной картой, ориентированной на память, для современного ИИ.
Как подход TensorWave к инфраструктуре ИИ отличается от традиционных провайдеров облачных GPU?
Наша дифференциация проста: мы являемся единственным облачным провайдером, ориентированным исключительно на AMD, который стремится восстановить выбор в вычислениях ИИ, нарушить доминирование NVIDIA и демократизировать доступ. Но это также связано с нашей этикой и приверженностью привнести真正ую альтернативу на рынок. Прежде всего, мы хотим предоставить исключительную инфраструктуру на основе AMD в крупном масштабе. Оттуда мы расширимся на лучшие услуги на основе этого – Модели как услугу, ИИ как услугу, делая все проще.
Как облако, ориентированное исключительно на AMD, у нас есть программный опыт, разработанный специально для AMD с первого дня. Этот фокус позволяет нам оптимизировать кремний, сеть и программное обеспечение от начала до конца, обеспечивая, чтобы команды могли масштабироваться, когда это необходимо.
Какую роль играет ваше стратегическое партнерство с AMD в росте и дифференциации TensorWave?
Оно является основополагающим. AMD инвестировала в TensorWave, пригласила нас на запуск MI300X Instinct и мы продолжаем тесно сотрудничать в области аппаратного и программного обеспечения, а также роста экосистемы. Быть облачным провайдером, ориентированным исключительно на AMD, означает, что мы можем быстро двигаться с каждым поколением Instinct и служить живой лабораторией, которая предоставляет, в крупном масштабе, альтернативы на нашем рынке. Наша дифференциация, основанная на AMD, позволила нам работать в темпе, который не так достижим на рынке инфраструктуры ИИ. Их партнерство позволяет нам быстро устранять пробелы, первыми выпускать новые GPU и публиковать реальную производительность в крупном масштабе.
Доступ к GPU остается значительным препятствием для команд ИИ – как TensorWave решает эту проблему?
Мы решаем эти препятствия сначала через независимость поставок: построив на основе AMD, мы избегаем худшего из ограничений поставок других производителей чипов и передаем доступность нашим клиентам. Независимость поставок через AMD гарантирует, что наши клиенты не застревают в ожидании в одной очереди с всеми остальными.
Пробелы в экосистеме инфраструктуры ИИ существуют, потому что так много игроков строят подобные решения, создавая много перекрытия. Это часто происходит из-за отсутствия осведомленности о том, что происходит на рынке. Первый шаг к устранению этих пробелов – понять, кто делает что, где есть возможности для сотрудничества, где конкуренция может стимулировать инновации, и, в конечном итоге, как экосистема может улучшиться в целом. Одна уникальная пробел в рынке инфраструктуры ИИ – это энергия; даже если GPU доступны, часто нет достаточно энергии, чтобы поддержать растущее количество приложений ИИ. Решение этих проблем с ресурсами является нашим ключом к обеспечению устойчивого роста и инноваций в будущем.
Как функции, такие как прямое жидкостное охлаждение и сетевое подключение UEC (Universal Ethernet Consortium), повышают производительность и эффективность затрат?
Прямое жидкостное охлаждение и сетевое подключение UEC являются основополагающими для того, что делает современное облачное решение ИИ экономически жизнеспособным в крупном масштабе, и оба являются центральными для того, как мы спроектировали TensorWave.
О DLC: новые поколения ускорителей, такие как MI355X и MI455X от AMD, работают в тепловых оболочках, которые воздух просто не может эффективно обработать. Мы говорим о 1400 Вт+ ТДП на GPU. Прямое жидкостное охлаждение удаляет тепло из источника через холодную пластину или конструкцию погружения, что делает три вещи для наших клиентов. Во-первых, оно позволяет существенно увеличить плотность стойки, 120-300 кВт+ на стойку вместо 30-40 кВт, что сжимает площадь и снижает затраты на недвижимость и распределение электроэнергии. Во-вторых, оно приближает PUE к 1,1, вместо 1,4-1,5 для устаревших воздушных систем; на нашем масштабе это переводится в десятки миллионов долларов в год на экономии коммунальных услуг. В-третьих, и часто недооценивается, DLC держит кремний при более низких, стабильных температурах соединения, что сохраняет устойчивые тактовые частоты во время длинных тренировочных запусков и продлевает срок службы оборудования. Последняя точка имеет огромное значение, когда вы страхуете шестилетний актив.
О UEC: спецификация Ultra Ethernet Consortium, которая была основана AMD и достигла 1,0 в 2025 году, дает нам открытую, ориентированную на merchant-силikon сеть, которая соответствует или превышает InfiniBand по метрикам, которые действительно имеют значение для распределенной тренировки. Задержка коллективов, эффективная пропускная способность при контенте и масштабирующее поведение после порога 100 000 GPU. История затрат является структурной. Ethernet имеет полдюжины достоверных merchant-силikon поставщиков, конкурирующих по цене, вместо альтернативы с единственным источником, которая несет хорошо задокументированную премию. Для 100-мегаваттного сайта выбор сетевого подключения UEC вместо проприетарной сети обычно является девятизначным решением CAPEX, и операционные преимущества складываются, потому что наши сетевые инженеры уже знают Ethernet.
Вместе эти выборы позволяют нам предоставить лучшую экономику тренировки, чем облачные решения старого типа. Клиенты видят более высокие эффективные FLOPs на доллар, более предсказуемые времена шагов на крупных задачах и четкую дорожную карту по мере масштабирования моделей. Для нас они означают более оборонительную структуру затрат и гибкость, чтобы предложить действительно конкурентные тарифные планы.
Можете ли вы поделиться примерами того, как клиенты используют TensorWave для обучения крупномасштабных моделей ИИ?
Клиенты TensorWave нуждаются в высокопроизводительных вычислениях ИИ без нехватки GPU, блокировки поставщиков или неконтролируемых затрат. TensorWave предоставляет исключительное облачное решение на основе AMD – открытое, оптимизированное для памяти и готовое к производству, что дает командам масштабируемую инфраструктуру ИИ, которая доступна, гибка и эффективна по затратам.
Например, Modular выбрала запуск своего стека вывода MAX на инфраструктуре GPU AMD от TensorWave, потому что TensorWave обеспечивает существенно лучшую экономику затрат и производительности для крупномасштабного вывода ИИ. Запуская MAX от Modular на вычислительной мощности AMD от TensorWave, они достигают до 70% более низкой стоимости на миллион токенов, 57% более быстрой пропускной способности и меньшей общей стоимости, чем другие стэки GPU.
С учетом продолжающегося доминирования NVIDIA, где вы видите самые большие возможности для挑жающих, таких как TensorWave?
В пространстве вычислений ИИ, которое доминируется несколькими крупными игроками, самыми большими проблемами являются достижение скорости выхода на рынок, предоставление последних технологий и обеспечение исключительной поддержки. Гиперскалеры часто предлагают широкий спектр вариантов, но борются с предоставлением фокуса или персонализированного руководства, которое клиенты нуждаются. Чтобы пробиться через это доминирующее пространство, TensorWave фокусируется на наших сильных сторонах, сотрудничая, чтобы предоставить лучшую технологию возможную, и гарантируя, что клиенты имеют альтернативные варианты.
Две самые большие возможности для вызовов доминированию NVIDIA в инфраструктуре ИИ – это открытые экосистемы и память. Открытые экосистемы устраняют блокировку на каждом уровне (аппаратное, сетевое и программное). Кроме того, память в сочетании с сетевой оптимизацией тренировки/вывода переворачивает кривую затрат.
Оглядываясь вперед на пять лет, как вы представляете себе будущее инфраструктуры ИИ и роль TensorWave в этом?
На протяжении многих лет целью в инфраструктуре ИИ было сделать ее хорошей, стабильной и легкой в использовании. Следующая фаза будет заключаться в том, что можно предоставить на основе этого – управляемые услуги, ИИ как услугу, все, что помогает клиентам развертывать и масштабировать более легко.
Мы находимся на пороге значительной трансформации. Технология ИИ продолжает развиваться, и альтернативы, такие как AMD, становятся все более жизнеспособными. По мере того, как это происходит, клиенты станут более комфортными, развертывая их в крупном масштабе, и вся экосистема начнет открываться и расти.
Спасибо за отличное интервью, все, кто хочет узнать больше об этой инновационной компании по инфраструктуре ИИ, должен посетить TensorWave.












