Connect with us

Даррик Хортон, COO TensorWave – Интервью-серия

Интервью

Даррик Хортон, COO TensorWave – Интервью-серия

mm

Даррик Хортон, COO TensorWave, является технологическим руководителем и предпринимателем с глубоким опытом в области инфраструктуры ИИ, облачных вычислений и передовых аппаратных систем. С опытом, охватывающим архитектуру центров обработки данных, полупроводниковые технологии и высокопроизводительные вычисления, он сыграл центральную роль в масштабировании платформ вычислений следующего поколения ИИ. До своего руководства в TensorWave Хортон работал над передовыми инженерными инициативами, включая исследования ядерного синтеза в Lockheed Martin’s Skunk Works, и внес вклад в проекты физики плазмы и астрофизики, финансируемые НАСА. Его карьера характеризуется постоянной направленностью на решение сложных, крупномасштабных технических задач и перевод их в практические решения инфраструктуры для новых технологий.

TensorWave – это компания по инфраструктуре ИИ, ориентированная на предоставление высокопроизводительных облачных вычислений, работающих на GPU AMD, позиционирующая себя как альтернатива более закрытым экосистемам ИИ. Основанная в 2023 году и имеющая штаб-квартиру в Лас-Вегасе, компания строит крупномасштабные кластеры GPU, оптимизированные для обучения и развертывания передовых моделей ИИ, с упором на производительность, гибкость и эффективность затрат. Используя открытые аппаратные и программные экосистемы, TensorWave стремится расширить доступ к мощным ресурсам вычислений ИИ для предприятий, исследователей и разработчиков, позволяя масштабировать рабочие нагрузки ИИ без ограничений традиционной привязки к поставщику.

Nvidia занимает большинство рынка GPU – почему вы решили полностью сосредоточиться на AMD, и какие преимущества дает этот выбор TensorWave и ее клиентам?

После запуска ChatGPT спрос на ИИ взлетел. GPU быстро раскупились, и NVIDIA была практически единственным вариантом, если его можно было получить вообще, и если вы могли позволить себе это. Этот дефицит вызвал огромный интерес к альтернативам. Теперь, когда мы прошли первоначальный ажиотаж, есть реальная возможность бросить вызов доминированию Nvidia с помощью решений, которые являются доступными, эффективными по затратам и простыми в использовании.

Как стартап, мы всегда принимали бизнес-решения с сильным фокусом и целью. Вот почему мы не экспериментировали с Nvidia и продолжали развивать наши возможности на базе AMD. Следующая фаза нашей компании заключается в том, чтобы использовать наши сосредоточенные возможности, чтобы любой мог приступить и сделать что-то значимое с помощью ИИ. AMD является достоверной альтернативой с реальным производственным масштабом, открытым программным положением и дорожной картой, ориентированной на память, для современного ИИ.

Как подход TensorWave к инфраструктуре ИИ отличается от традиционных провайдеров облачных GPU?

Наша дифференциация проста: мы являемся единственным облачным провайдером, эксклюзивно работающим с AMD в крупном масштабе, стремящимся восстановить выбор в вычислениях ИИ, нарушить доминирование Nvidia и демократизировать доступ. Но это также связано с нашей этикой и приверженностью привнести真正ую альтернативу на рынок. Прежде всего, мы хотим предоставить исключительную инфраструктуру на базе AMD в крупном масштабе. Оттуда мы расширимся на лучшие услуги на ее основе – Модели как услуга, ИИ как услуга, сделав все проще.

Как облачный провайдер, работающий исключительно с AMD, у нас есть программный опыт, построенный специально для AMD с первого дня. Этот фокус позволяет нам оптимизировать кремний, сеть и программное обеспечение от начала до конца, гарантируя, что команды могут масштабироваться, когда им это нужно.

Какую роль играет ваш стратегический партнерство с AMD в росте и дифференциации TensorWave?

Это фундаментально. AMD инвестировала в TensorWave, пригласила нас на запуск MI300X Instinct и мы продолжаем тесно сотрудничать в области аппаратного и программного обеспечения, а также роста экосистемы. Быть облачным провайдером, работающим исключительно с AMD, означает, что мы можем быстро двигаться с каждым поколением Instinct и служить живой лабораторией, предоставляющей, в крупном масштабе, альтернативы на нашем рынке. Наша дифференциация, основанная на AMD, позволила нам работать в темпе, который не так достижим на рынке инфраструктуры ИИ. Партнерство с AMD позволяет нам быстро закрывать пробелы, поставлять первыми новые GPU и публиковать реальную производительность в крупном масштабе.

Доступ к GPU остается основным препятствием для команд ИИ – как TensorWave решает эту проблему?

Мы решаем эти препятствия в первую очередь за счет независимости поставок: построив на базе AMD, мы избегаем худшего из ограничений поставок других производителей чипов и передаем доступность нашим клиентам. Независимость поставок через AMD гарантирует, что наши клиенты не застревают в очереди, как все остальные.

Пробелы в экосистеме инфраструктуры ИИ существуют, потому что так много игроков строят подобные решения, создавая много перекрытий. Это часто происходит из-за отсутствия осведомленности о том, что происходит на рынке. Первый шаг к закрытию этих пробелов – понимание, кто делает что, где есть возможности для сотрудничества, где конкуренция может стимулировать инновации, и в конечном итоге, как экосистема может улучшиться в целом. Одна уникальная пробел в рынке инфраструктуры ИИ – это энергия; даже если GPU доступны, часто нет достаточно энергии, чтобы поддержать растущее количество приложений ИИ. Решение этих проблем с ресурсами является нашим ключом к обеспечению устойчивого роста и инноваций в ближайшие годы.

Как такие функции, как прямое жидкостное охлаждение и сетевое подключение, готовое к UEC (Универсальному консорциуму Ethernet), повышают производительность и эффективность затрат?

Прямое жидкостное охлаждение и сетевое подключение, готовое к UEC, являются фундаментальными для того, что делает современное облачное решение ИИ экономически жизнеспособным в крупном масштабе, и оба являются центральными для того, как мы спроектировали TensorWave.

О DLC: новые поколения ускорителей, такие как AMD MI355X и MI455X, работают в термических оболочках, которые воздух просто не может эффективно обработать. Мы говорим о 1400 Вт+ ТДП на GPU. Прямое жидкостное охлаждение удаляет тепло из источника через холодную пластину или конструкцию погружения, что делает три вещи для наших клиентов. Во-первых, оно позволяет существенно увеличить плотность стойки, 120-300 кВт+ на стойку вместо 30-40 кВт, что сжимает площадь и снижает затраты на энергию и распределение электроэнергии на каждый мегаватт. Во-вторых, оно приближает PUE к 1,1, вместо 1,4-1,5 для устаревших воздушных систем охлаждения; на нашем масштабе это переводится в десятки миллионов долларов в год на экономии утилит. В-третьих, и часто недооценивается, DLC держит кремний при более низких и стабильных температурах соединения, что сохраняет устойчивые тактовые частоты во время длительных тренировочных запусков и продлевает срок службы оборудования. Эта последняя точка имеет огромное значение, когда вы подписываетесь на шестилетний актив.

О UEC: спецификация Ultra Ethernet Consortium, которая была основана AMD и достигла 1.0 в 2025 году, дает нам открытую, ориентированную на merchant-силikon сетевую ткань, которая соответствует или превышает InfiniBand по метрикам, которые действительно имеют значение для распределенного обучения. Задержка на коллективах, эффективная пропускная способность при контенции и масштабирующее поведение после порога 100 000 GPU. История затрат является структурной. Ethernet имеет полдюжины достоверных merchant-силikon поставщиков, конкурирующих по цене, вместо единственного источника, который несет хорошо документированную премию. Для объекта мощностью 100 МВт выбор сети, готовой к UEC, вместо проприетарной ткани, обычно является девятизначным решением CAPEX, и операционные преимущества складываются, поскольку наши сетевые инженеры уже знают Ethernet.

Вместе эти выборы позволяют нам предоставить лучшую экономику обучения, чем устаревшие облачные решения. Клиенты видят более высокие эффективные FLOPs на доллар, более предсказуемые времена шагов на крупных задачах и четкую перспективу масштабирования моделей. Для нас они означают более оборонительную структуру затрат и гибкость, чтобы предложить действительно конкурентные тарифные планы.

Можете ли вы поделиться примерами того, как клиенты используют TensorWave для обучения крупномасштабных моделей ИИ?

Клиенты TensorWave нуждаются в высокопроизводительных вычислениях ИИ без дефицита GPU, привязки к поставщику или неконтролируемых затрат. TensorWave предоставляет эксклюзивное облачное решение на базе AMD – открытое, оптимизированное для памяти и готовое к производству, что дает командам масштабируемую инфраструктуру ИИ, которая доступна, гибка и эффективна по затратам.

Например, Modular выбрала запуск своего стека MAX на инфраструктуре GPU AMD от TensorWave, потому что TensorWave обеспечивает значительно лучшую экономику затрат и производительности для крупномасштабного вывода ИИ. Запуская MAX на вычислительной базе AMD от TensorWave, они достигают до 70% более низкой стоимости на миллион токенов, 57% более быстрой пропускной способности и более низкой общей стоимости, чем другие стэки GPU.

С учетом продолжающегося доминирования Nvidia, где вы видите самые большие возможности для претендентов, таких как TensorWave?

В пространстве вычислений ИИ, доминируемом несколькими крупными игроками, самыми большими проблемами являются достижение скорости выхода на рынок, предоставление последних технологий и предоставление исключительной поддержки. Гиперскелеры часто предлагают широкий спектр вариантов, но борются с предоставлением фокуса или персонализированного руководства, которое нужны клиентам. Чтобы пробиться через это доминирующее пространство, TensorWave фокусируется на наших сильных сторонах, сотрудничая, чтобы предоставить лучшую технологию, и гарантируя, что клиенты имеют альтернативные варианты.

Две самые большие возможности для претендентов на доминирование Nvidia в инфраструктуре ИИ заключаются в открытых экосистемах и памяти. Открытые экосистемы исключают привязку на каждом уровне (аппаратное, сетевое и программное обеспечение). Кроме того, память в сочетании с сетью, оптимизированной для обучения/вывода, переворачивает кривую затрат.

Оглядываясь вперед на пять лет, как вы представляете себе будущее инфраструктуры ИИ и роль TensorWave в нем?

На протяжении многих лет целью в инфраструктуре ИИ было сделать ее хорошей, стабильной и простой в использовании. Следующая фаза будет заключаться в том, что можно предоставить поверх этого – управляемые услуги, ИИ как услугу, все, что помогает клиентам развертывать и масштабировать более легко.

Мы находимся на пороге крупной трансформации. Технология ИИ продолжает развиваться, и альтернативы, такие как AMD, становятся все более жизнеспособными. Когда это происходит, клиенты станут более комфортными, развертывая их в крупном масштабе, и вся экосистема начнет открываться и расти.

Спасибо за отличное интервью, все, кто хочет узнать больше об этой инновационной компании по инфраструктуре ИИ, должны посетить TensorWave.

Антуан - видный лидер и сооснователь Unite.AI, движимый непоколебимой страстью к формированию и продвижению будущего ИИ и робототехники. Как серийный предприниматель, он считает, что ИИ будет столь же разрушительным для общества, как электричество, и часто увлекается потенциалом разрушительных технологий и ИИ.

Как футуролог, он посвящен изучению того, как эти инновации изменят наш мир. Кроме того, он является основателем Securities.io, платформы, ориентированной на инвестиции в передовые технологии, которые переопределяют будущее и меняют целые сектора.

Раскрытие информации о рекламе: Unite.AI придерживается строгих редакционных стандартов, чтобы предоставлять читателям точную информацию и новости. Мы можем получать вознаграждение, если вы переходите по ссылкам на продукты, которые мы рассмотрели.