Connect with us

Darrick Horton, COO de TensorWave – Serie de entrevistas

Entrevistas

Darrick Horton, COO de TensorWave – Serie de entrevistas

mm

Darrick Horton, COO de TensorWave, es un ejecutivo de tecnología y empresario con una profunda experiencia en infraestructura de inteligencia artificial, computación en la nube y sistemas de hardware avanzados. Con un historial que abarca la arquitectura de centros de datos, tecnologías de semiconductores y computación de alto rendimiento, ha desempeñado un papel central en la escalabilidad de plataformas de cómputo de inteligencia artificial de próxima generación. Antes de su liderazgo en TensorWave, Horton trabajó en iniciativas de ingeniería avanzada, incluida la investigación de fusión nuclear en Skunk Works de Lockheed Martin y contribuyó a proyectos de física de plasma y astrofísica financiados por la NASA. Su carrera refleja un enfoque constante en la resolución de desafíos técnicos complejos y a gran escala, y su traducción en soluciones de infraestructura prácticas para tecnologías emergentes.

TensorWave es una empresa de infraestructura de inteligencia artificial que se centra en ofrecer computación en la nube de alto rendimiento impulsada por GPUs de AMD, posicionándose como una alternativa a los ecosistemas de inteligencia artificial más cerrados. Fundada en 2023 y con sede en Las Vegas, la empresa construye clústeres de GPU a gran escala optimizados para el entrenamiento y la implementación de modelos de inteligencia artificial avanzados, con énfasis en el rendimiento, la flexibilidad y la eficiencia de costo. Al aprovechar los ecosistemas de hardware y software abiertos, TensorWave busca ampliar el acceso a recursos de cómputo de inteligencia artificial potentes para empresas, investigadores y desarrolladores, permitiendo cargas de trabajo de inteligencia artificial escalables sin las limitaciones del bloqueo de proveedores tradicional.

Nvidia domina la mayor parte del mercado de GPUs, ¿por qué decidiste ir a por AMD y qué ventajas ofrece esta elección a TensorWave y sus clientes?

Después del lanzamiento de ChatGPT, la demanda de inteligencia artificial se disparó. Las GPUs se agotaron rápidamente, y NVIDIA era básicamente la única opción si podías conseguirla y si podías manejar el costo. Esa escasez despertó un gran interés en las alternativas. Ahora que hemos superado el hype inicial, hay una oportunidad real de desafiar el dominio de Nvidia con soluciones que son accesibles, rentables y fáciles de usar.

Como startup, siempre hemos tomado decisiones comerciales con un fuerte enfoque y propósito. Es por eso que no hemos experimentado con Nvidia, y hemos seguido construyendo nuestras capacidades en AMD. La próxima fase de nuestra empresa se centra en aprovechar esas capacidades enfocadas para que cualquier persona pueda sumergirse y hacer algo significativo con la inteligencia artificial. AMD es una alternativa creíble con una escala de fabricación real, una postura de software abierta y una hoja de ruta de memoria para la inteligencia artificial moderna.

¿Cómo se diferencia el enfoque de TensorWave hacia la infraestructura de inteligencia artificial de los proveedores de nube de GPU tradicionales?

Nuestra diferenciación es sencilla: somos la única nube exclusiva de AMD a gran escala, que busca restaurar la elección en el cómputo de inteligencia artificial, romper el dominio de Nvidia y democratizar el acceso. Pero también se trata de nuestra ética y compromiso de traer una verdadera alternativa al mercado. En primer lugar, queremos ofrecer infraestructura excepcional basada en AMD a gran escala. A partir de ahí, expandiremos hacia servicios de primer nivel sobre ella: Modelos como servicio, Inteligencia artificial como servicio, haciendo que todo sea más sencillo.

Como una nube exclusiva de AMD, tenemos experiencia en software construida específicamente para AMD desde el primer día. Este enfoque nos permite optimizar el silicio, la red y el software de extremo a extremo, asegurando que los equipos puedan escalar cuando lo necesiten.

¿Cuál es el papel de la asociación estratégica con AMD en el crecimiento y la diferenciación de TensorWave?

Es fundamental. AMD invirtió en TensorWave, nos invitó al lanzamiento de MI300X Instinct y seguimos colaborando estrechamente en hardware, habilitación de software y crecimiento del ecosistema. Ser una nube exclusiva de AMD significa que podemos movernos rápidamente con cada generación de Instinct, y servir como un laboratorio en vivo que ofrece, a gran escala, alternativas dentro de nuestro mercado. Nuestra diferenciación exclusiva de AMD nos ha permitido trabajar a un ritmo que no es tan alcanzable en el mercado de infraestructura de inteligencia artificial. Su asociación nos permite cerrar brechas rápidamente, enviar primero los nuevos GPUs y publicar un rendimiento real a gran escala.

El acceso a las GPUs sigue siendo un cuello de botella importante para los equipos de inteligencia artificial, ¿cómo está abordando TensorWave este desafío?

Estamos abordando estos cuellos de botella primero a través de la independencia de suministro: al construir sobre AMD, evitamos las peores limitaciones de suministro de otros fabricantes de chips, y pasamos la disponibilidad a los clientes. La independencia de suministro a través de AMD asegura que nuestros clientes no queden atrapados esperando en la misma cola que todos los demás.

Existen brechas en el ecosistema de infraestructura de inteligencia artificial porque muchos jugadores están construyendo soluciones similares, creando mucho solapamiento. Eso a menudo proviene de una falta de conciencia sobre lo que está sucediendo en todo el mercado. El primer paso para cerrar esas brechas es entender quién está haciendo qué, dónde hay oportunidades de colaboración, dónde la competencia puede impulsar la innovación y, en última instancia, cómo el ecosistema puede mejorar en su conjunto. Una brecha única en el mercado de infraestructura de inteligencia artificial es la energía; incluso si las GPUs están disponibles, a menudo no hay suficiente energía para respaldar el creciente número de aplicaciones de inteligencia artificial. Resolver estos desafíos de recursos es nuestra clave para habilitar un crecimiento y una innovación sostenibles en los años venideros.

¿Cómo mejoran las características como la refrigeración líquida directa y la red UEC (Consorcio de Ethernet Universal) el rendimiento y la eficiencia de costo?

La refrigeración líquida directa y la red UEC son fundamentales para lo que hace que una nube de inteligencia artificial moderna sea viable económicamente a gran escala, y ambas son centrales en cómo hemos diseñado TensorWave.

Sobre DLC: las generaciones más recientes de aceleradores, AMD’s MI355X y MI455X, funcionan a envolturas térmicas que el aire simplemente no puede manejar de manera eficiente. Estamos hablando de 1400W+ de TDP por GPU. La refrigeración líquida directa elimina el calor en la fuente a través de diseños de placa fría o inmersión, lo que hace tres cosas para nuestros clientes. Primero, permite una densidad de rack sustancialmente mayor, 120-300kW+ por rack en lugar de 30 a 40kW, lo que comprime el pie de huella y reduce los costos de distribución de energía y espacio por megavatio. Segundo, impulsa el PUE hacia 1.1, versus 1.4 a 1.5 para las instalaciones de enfriamiento por aire heredadas; a nuestra escala, eso se traduce en decenas de millones de dólares en ahorros de servicios públicos anuales. Tercero, y a menudo subestimado, DLC mantiene el silicio a temperaturas de unión más bajas y más estables, lo que preserva las tasas de reloj sostenidas durante largas sesiones de entrenamiento y extiende la vida útil del hardware. Ese último punto es enormemente importante cuando se está garantizando un activo de seis años.

Sobre UEC: la especificación del Consorcio de Ethernet Universal, que AMD ayudó a fundar y que alcanzó la versión 1.0 en 2025, nos da una red de tejido abierto, de silicio mercantil que iguala o supera a InfiniBand en las métricas que realmente importan para el entrenamiento distribuido. La latencia de cola en colectivos, ancho de banda efectivo bajo contención y comportamiento de escalabilidad más allá del umbral de 100,000 GPUs. La historia de costos es estructural. Ethernet tiene una media docena de proveedores de silicio mercantil creíbles que compiten en precio, versus una alternativa de una sola fuente que lleva un premio bien documentado. Para un sitio de 100MW, elegir una red UEC en lugar de un tejido propietario es típicamente una decisión de CAPEX de nueve cifras, y las ventajas operativas se multiplican porque nuestros ingenieros de red ya conocen Ethernet.

Tomadas en conjunto, estas elecciones nos permiten ofrecer una mejor economía de entrenamiento que las nubes heredadas. Los clientes ven un mayor número de FLOPs efectivos por dólar, tiempos de paso más predecibles en trabajos grandes y una carrera clara a medida que los modelos escalan. Para nosotros, significan una estructura de costos más defensible y la flexibilidad para ofrecer tarifas competitivas de verdad.

¿Puedes compartir ejemplos de cómo los clientes están utilizando TensorWave para entrenar modelos de inteligencia artificial a gran escala?

Los clientes de TensorWave necesitan cómputo de inteligencia artificial de alto rendimiento sin escasez de GPUs, bloqueo de proveedores o costos descontrolados. TensorWave ofrece una nube exclusiva de AMD – abierta, optimizada para memoria y lista para producción –, lo que brinda a los equipos infraestructura de inteligencia artificial escalable que es accesible, flexible y rentable.

Por ejemplo, Modular eligió ejecutar su pila de inferencia MAX en la infraestructura de GPU de AMD de TensorWave porque TensorWave ofrece una economía de costos significativamente mejor para la inferencia de inteligencia artificial a gran escala. Al ejecutar el MAX de Modular en el cómputo de AMD de TensorWave, logran un ahorro de costo de hasta un 70% por millón de tokens, un 57% más rápido y un costo total menor que otras pilas de GPU.

Con el dominio continuo de Nvidia, ¿dónde ves las mayores oportunidades para los desafiantes como TensorWave?

En un espacio de cómputo de inteligencia artificial dominado por unos pocos jugadores importantes, los mayores desafíos son lograr la velocidad de comercialización, entregar la última tecnología y brindar un soporte excepcional. Los hiperescaladores a menudo ofrecen una amplia gama de opciones, pero luchan por brindar el enfoque o la orientación personalizada que los clientes necesitan. Para romper este espacio dominado, TensorWave se centra en nuestras fortalezas, al mismo tiempo que colabora para brindar la mejor tecnología posible y asegurar que los clientes tengan opciones alternativas.

Las dos mayores oportunidades para los desafiantes del dominio de la infraestructura de inteligencia artificial de Nvidia son en los ecosistemas abiertos y la memoria. Los ecosistemas abiertos eliminan el bloqueo en cada capa (hardware, interconexión y software). Además, la memoria asociada con la formación de redes optimizadas para el entrenamiento y la inferencia invierte la curva de costos.

Mirando hacia adelante cinco años, ¿cómo visualizas el futuro de la infraestructura de inteligencia artificial y el papel de TensorWave en ella?

Durante años, el objetivo en la infraestructura de inteligencia artificial fue hacer que fuera buena, estable y fácil de usar. La próxima fase será sobre lo que puedes ofrecer sobre eso – servicios administrados, Inteligencia artificial como servicio, cualquier cosa que ayude a los clientes a implementar y escalar más fácilmente.

Estamos al comienzo de una gran transformación. La tecnología de inteligencia artificial sigue avanzando, y las alternativas como AMD se vuelven más y más viables. A medida que sucede esto, los clientes se volverán más cómodos al implementarlas a gran escala, y todo el ecosistema comenzará a abrirse y crecer.

Gracias por la excelente entrevista, cualquier persona que desee aprender más sobre esta innovadora empresa de infraestructura de inteligencia artificial debe visitar TensorWave.

Antoine es un líder visionario y socio fundador de Unite.AI, impulsado por una pasión inquebrantable por dar forma y promover el futuro de la IA y la robótica. Un empresario serial, cree que la IA será tan disruptiva para la sociedad como la electricidad, y a menudo se le escucha hablando con entusiasmo sobre el potencial de las tecnologías disruptivas y la AGI. Como un futurista, está dedicado a explorar cómo estas innovaciones darán forma a nuestro mundo. Además, es el fundador de Securities.io, una plataforma enfocada en invertir en tecnologías de vanguardia que están redefiniendo el futuro y remodelando sectores enteros.