Connect with us

Darrick Horton, COO da TensorWave – Série de Entrevistas

Entrevistas

Darrick Horton, COO da TensorWave – Série de Entrevistas

mm

Darrick Horton, COO da TensorWave, é um executivo de tecnologia e empreendedor com experiência profunda em infraestrutura de IA, computação em nuvem e sistemas de hardware avançados. Com um histórico que abrange arquitetura de centro de dados, tecnologias de semicondutores e computação de alto desempenho, ele desempenhou um papel central na escalada de plataformas de computação de IA de próxima geração. Antes de sua liderança na TensorWave, Horton trabalhou em iniciativas de engenharia avançada, incluindo pesquisas de fusão nuclear na Skunk Works da Lockheed Martin e contribuiu para projetos de física de plasma e astrofísica financiados pela NASA. Sua carreira reflete um foco consistente em resolver desafios técnicos complexos e de grande escala e traduzi-los em soluções de infraestrutura práticas para tecnologias emergentes.

TensorWave é uma empresa de infraestrutura de IA focada em fornecer computação em nuvem de alto desempenho alimentada por GPUs da AMD, posicionando-se como uma alternativa a ecossistemas de IA mais fechados. Fundada em 2023 e sediada em Las Vegas, a empresa constrói clusters de GPUs de grande escala otimizados para treinar e implantar modelos de IA avançados, com ênfase em desempenho, flexibilidade e eficiência de custo. Ao aproveitar ecossistemas de hardware e software abertos, a TensorWave visa ampliar o acesso a recursos de computação de IA poderosos para empresas, pesquisadores e desenvolvedores, permitindo cargas de trabalho de IA escaláveis sem as restrições de bloqueio de fornecedor tradicional.

Nvidia domina a maior parte do mercado de GPUs – por que você decidiu apostar tudo na AMD e quais vantagens essa escolha dá à TensorWave e aos seus clientes?

Após o lançamento do ChatGPT, a demanda por IA disparou. As GPUs foram rapidamente compradas e a Nvidia era basicamente a única opção, se você conseguisse obtê-la e se pudesse lidar com o custo. Essa escassez despertou um grande interesse em alternativas. Agora que passamos a hiperia inicial, há uma oportunidade real de desafiar a dominância da Nvidia com soluções acessíveis, eficientes em termos de custo e fáceis de usar.

Como uma startup, sempre tomamos decisões de negócios com um foco forte e um propósito. É por isso que não experimentamos com a Nvidia e continuamos construindo nossas capacidades na AMD. A próxima fase da nossa empresa é sobre aproveitar essas capacidades focadas para que qualquer pessoa possa entrar e fazer algo significativo com a IA. A AMD é uma alternativa credível com escala de fabricação real, uma postura de software aberto e uma estrada de memória para a IA moderna.

Como a abordagem da TensorWave para a infraestrutura de IA difere dos provedores de nuvem de GPU tradicionais?

Nossa diferença é direta: somos a única nuvem exclusiva da AMD em escala, buscando restaurar a escolha na computação de IA, quebrar a dominância da Nvidia e democratizar o acesso. Mas também é sobre nossa ética e compromisso em trazer uma alternativa real para o mercado. Em primeiro lugar e acima de tudo, queremos fornecer infraestrutura de classe mundial baseada na AMD em escala. A partir daí, expandiremos para serviços de nível superior sobre isso – Modelos como um Serviço, IA como um Serviço, tornando tudo mais simples.

Como uma nuvem exclusiva da AMD, temos experiência em software construída especificamente para a AMD desde o início. Esse foco nos permite otimizar o silício, a rede e o software de ponta a ponta, garantindo que as equipes possam escalar quando necessário.

Qual é o papel da parceria estratégica com a AMD no crescimento e na diferenciação da TensorWave?

É fundamental. A AMD investiu na TensorWave, nos convidou para o lançamento do MI300X Instinct e continuamos a colaborar estreitamente em hardware, habilitação de software e crescimento do ecossistema. Ser uma nuvem exclusiva da AMD significa que podemos nos mover rapidamente com cada geração do Instinct e servir como um laboratório vivo que fornece, em escala, alternativas dentro do nosso mercado. Nossa diferenciação exclusiva da AMD nos permitiu trabalhar a um ritmo que não é tão alcançável no mercado de infraestrutura de IA. A parceria da AMD nos permite fechar lacunas rapidamente, enviar primeiro os novos GPUs e publicar desempenho real em escala.

O acesso a GPUs permanece um grande gargalo para as equipes de IA – como a TensorWave está lidando com esse desafio?

Estamos lidando com esses gargalos primeiro por meio da independência de fornecimento: ao construir na AMD, evitamos as piores restrições de fornecimento de outros fabricantes de chips e passamos a disponibilidade para os clientes.

Existem lacunas no ecossistema de infraestrutura de IA porque muitos jogadores estão construindo soluções semelhantes, criando muita sobreposição. Isso muitas vezes vem de uma falta de conscientização sobre o que está acontecendo em todo o mercado. O primeiro passo para fechar essas lacunas é entender quem está fazendo o quê, onde existem oportunidades de colaboração, onde a competição pode impulsionar a inovação e, em última análise, como o ecossistema pode melhorar como um todo. Uma lacuna única no mercado de infraestrutura de IA é o poder; mesmo que as GPUs estejam disponíveis, muitas vezes não há energia suficiente para suportar o número crescente de aplicações de IA. Resolver esses desafios de recursos é a chave para permitir o crescimento sustentável e a inovação nos anos vindouros.

Como recursos como resfriamento líquido direto e rede pronta para UEC (Consórcio de Ethernet Universal) melhoram o desempenho e a eficiência de custo?

Resfriamento líquido direto e rede pronta para UEC são fundamentais para o que torna uma nuvem de IA economicamente viável em escala e ambos são centrais para como projetamos a TensorWave.

Sobre o DLC: as gerações mais recentes de aceleradores, como o MI355X e o MI455X da AMD, operam em envelopes térmicos que o ar simplesmente não pode lidar de forma eficiente. Estamos falando de TDPs de 1400W+ por GPU. O resfriamento líquido direto remove o calor na fonte por meio de designs de placa fria ou imersão, o que faz três coisas para os nossos clientes. Primeiro, permite uma densidade de rack substancialmente maior, 120-300kW+ por rack, em vez de 30 a 40kW, o que comprime o espaço e reduz os custos de distribuição de energia e real estate por megawatt. Segundo, impulsiona o PUE em direção a 1,1, em vez de 1,4 a 1,5 para instalações resfriadas a ar legadas; em nossa escala, isso se traduz em dezenas de milhões de dólares em economia de utilidades anuais. Terceiro, e frequentemente subestimado, o DLC mantém o silício em temperaturas mais baixas e estáveis, o que preserva as taxas de relógio sustentadas durante longas execuções de treinamento e estende a vida útil do hardware. Esse último ponto é enormemente importante quando você está garantindo um ativo de seis anos.

Sobre a UEC: o padrão do Consórcio de Ethernet Ultra, que a AMD ajudou a fundar e que alcançou a versão 1.0 em 2025, nos fornece uma rede de tecido aberta, de silício mercantil, que atende ou supera a InfiniBand nas métricas que realmente importam para o treinamento distribuído. A história de custo é estrutural. O Ethernet tem meia dúzia de fornecedores de silício mercantil credíveis competindo em preço, em vez de uma alternativa de única fonte que carrega um prêmio bem documentado. Para um local de 100MW, escolher uma rede pronta para a UEC em vez de um tecido proprietário é normalmente uma decisão de CAPEX de nove algarismos, e as vantagens operacionais se somam porque nossos engenheiros de rede já conhecem o Ethernet.

Tomados em conjunto, essas escolhas nos permitem entregar uma economia de treinamento melhor do que as nuvens legadas. Os clientes veem FLOPs eficazes por dólar mais altos, tempos de passo mais previsíveis em trabalhos grandes e uma via clara à medida que os modelos escalam. Para nós, significam uma estrutura de custo mais defensável e a flexibilidade de oferecer taxas de concorrência genuína.

Posso compartilhar exemplos de como os clientes estão utilizando a TensorWave para treinar modelos de IA de grande escala?

Os clientes da TensorWave precisam de computação de IA de alto desempenho sem escassez de GPUs, bloqueio de fornecedor ou custos descontrolados. A TensorWave fornece uma nuvem exclusiva da AMD – aberta, otimizada para memória e pronta para produção, o que fornece às equipes infraestrutura de IA escalável que é acessível, flexível e eficiente em termos de custo.

Por exemplo, a Modular optou por executar sua pilha de inferência MAX na infraestrutura de GPU da AMD da TensorWave porque a TensorWave fornece uma economia de custo-desempenho significativamente melhor para a inferência de IA de grande escala. Ao executar a pilha MAX da Modular na computação da AMD da TensorWave, eles alcançam até 70% de redução de custo por milhão de tokens, 57% de aumento de taxa de transferência e menos custo geral do que outras pilhas de GPU.

Com a continuação da dominância da Nvidia, onde você vê as maiores oportunidades para desafiantes como a TensorWave?

Em um espaço de computação de IA dominado por alguns grandes jogadores, os maiores desafios são alcançar a velocidade de mercado, entregar a tecnologia mais recente e fornecer suporte excepcional. Os hyperscalers frequentemente oferecem uma ampla gama de opções, mas lutam para fornecer o foco ou orientação personalizada que os clientes precisam. Para romper esse espaço dominado, a TensorWave se concentra em nossas forças, enquanto colabora para fornecer a melhor tecnologia possível e garantir que os clientes tenham opções alternativas.

As duas maiores oportunidades para desafiantes da dominância da Nvidia na infraestrutura de IA são nos ecossistemas abertos e na memória. Os ecossistemas abertos eliminam o bloqueio em cada camada (hardware, interconexão e software). Além disso, a memória em parceria com o treinamento/inferência otimizado para rede inverte a curva de custo.

Olhando cinco anos à frente, como você vê o futuro da infraestrutura de IA e o papel da TensorWave nela?

Por anos, o objetivo na infraestrutura de IA foi torná-la boa, estável e fácil de usar. A próxima fase será sobre o que você pode entregar em cima disso – serviços gerenciados, IA como um Serviço, qualquer coisa que ajude os clientes a implantar e escalar mais facilmente.

Estamos no início de uma grande transformação. A tecnologia de IA continua avançando e alternativas como a AMD estão se tornando cada vez mais viáveis. À medida que isso acontece, os clientes se tornarão mais confortáveis em implantá-las em escala e todo o ecossistema começará a se abrir e crescer.

Obrigado pela ótima entrevista, qualquer pessoa que queira aprender mais sobre essa empresa inovadora de infraestrutura de IA deve visitar TensorWave.

Antoine é um líder visionário e sócio-fundador da Unite.AI, impulsionado por uma paixão inabalável em moldar e promover o futuro da IA e da robótica. Um empreendedor serial, ele acredita que a IA será tão disruptiva para a sociedade quanto a eletricidade, e é frequentemente pego falando sobre o potencial das tecnologias disruptivas e da AGI. Como um futurista, ele está dedicado a explorar como essas inovações moldarão nosso mundo. Além disso, ele é o fundador da Securities.io, uma plataforma focada em investir em tecnologias de ponta que estão redefinindo o futuro e remodelando setores inteiros.