Connect with us

Piotr Tomasik, Co-Fundador y Presidente de TensorWave – Serie de Entrevistas

Entrevistas

Piotr Tomasik, Co-Fundador y Presidente de TensorWave – Serie de Entrevistas

mm

Piotr Tomasik, Co-Fundador y Presidente de TensorWave, es un veterano empresario de tecnología y ejecutivo de infraestructura de IA con más de dos décadas de experiencia que abarca IA, SaaS, computación en la nube, fintech y la economía de los creadores. Antes de co-fundar TensorWave en 2023, co-fundó Influential, una plataforma de marketing de influencia impulsada por IA que posteriormente fue adquirida por Publicis por aproximadamente $500 millones, donde se desempeñó como CTO antes de pasar a un rol asesor.

A lo largo de su carrera, Tomasik también ha fundado o dirigido empresas como Lets Rolo, On Guard Data y ActiveSide, mientras ocupaba puestos senior de tecnología en CARD.com y Marker Trax. Además de sus roles operativos, es Socio General en 1864 Fund y co-fundador de StartUp Vegas, donde apoya activamente el ecosistema de startups de Las Vegas y el talento emergente en tecnología. Como graduado en ciencias de la computación de la UNLV y líder tecnológico reconocido, Tomasik se ha hecho conocido por ayudar a posicionar a TensorWave como una empresa de infraestructura de computación de IA de rápido crecimiento que se centra en plataformas de nube de GPU a gran escala impulsadas por aceleradores de AMD.

TensorWave es una empresa de infraestructura de IA que se centra en ofrecer computación en la nube de alto rendimiento impulsada por GPUs de AMD, posicionándose como una alternativa a los ecosistemas de IA más cerrados. Fundada en 2023 y con sede en Las Vegas, la empresa construye clústeres de GPU a gran escala optimizados para el entrenamiento y la implementación de modelos de IA avanzados, con énfasis en el rendimiento, la flexibilidad y la eficiencia de costo. Al aprovechar los ecosistemas de hardware y software abiertos, TensorWave tiene como objetivo ampliar el acceso a recursos de computación de IA potentes para empresas, investigadores y desarrolladores, permitiendo cargas de trabajo de IA escalables sin las limitaciones del bloqueo de proveedor tradicional.

Nvidia domina la mayor parte del mercado de GPUs, ¿por qué decidiste ir a por AMD y qué ventajas ofrece esta elección a TensorWave y sus clientes?

Después del lanzamiento de ChatGPT, la demanda de IA se disparó. Las GPUs se agotaron rápidamente, y NVIDIA era básicamente la única opción si podías conseguirla y si podías manejar el costo. Esa escasez despertó un gran interés en las alternativas. Ahora que hemos superado el hype inicial, hay una oportunidad real de desafiar el dominio de Nvidia con soluciones que son accesibles, rentables y fáciles de usar.

Como startup, siempre hemos tomado decisiones comerciales con un enfoque y propósito sólidos. Es por eso que no hemos experimentado con Nvidia, y hemos seguido construyendo nuestras capacidades en AMD. La próxima fase de nuestra empresa se centra en aprovechar esas capacidades enfocadas para que cualquiera pueda involucrarse y hacer algo significativo con la IA. AMD es una alternativa creíble con una escala de fabricación real, una postura de software abierta y una hoja de ruta de memoria para la IA moderna.

¿Cómo se diferencia el enfoque de TensorWave hacia la infraestructura de IA de los proveedores de nube de GPU tradicionales?

Nuestra diferenciación es directa: somos la única nube exclusiva de AMD a gran escala, que busca restaurar la elección en la computación de IA, romper el dominio de Nvidia y democratizar el acceso. Pero también se trata de nuestra ética y compromiso para ofrecer una verdadera alternativa en el mercado. Primero y principal, queremos ofrecer infraestructura de AMD excepcional a gran escala. A partir de ahí, expandiremos hacia servicios de primer nivel sobre ella – Modelos como Servicio, IA como Servicio, haciendo que todo sea más sencillo.

Como una nube exclusiva de AMD, tenemos experiencia en software construida específicamente para AMD desde el primer día. Este enfoque nos permite optimizar el silicio, la red y el software de extremo a extremo, asegurando que los equipos puedan escalar cuando lo necesiten.

¿Cuál es el papel que juega su asociación estratégica con AMD en el crecimiento y la diferenciación de TensorWave?

Es fundamental. AMD invirtió en TensorWave, nos invitó al lanzamiento de MI300X Instinct y seguimos colaborando estrechamente en hardware, habilitación de software y crecimiento del ecosistema. Ser una nube exclusiva de AMD significa que podemos movernos rápidamente con cada generación de Instinct, y servir como un laboratorio en vivo que ofrece, a gran escala, alternativas dentro de nuestro mercado. Nuestra diferenciación exclusiva de AMD nos ha permitido trabajar a un ritmo que no es tan alcanzable en el mercado de infraestructura de IA. Su asociación nos permite cerrar brechas rápidamente, enviar primero los nuevos GPUs y publicar un rendimiento real a gran escala.

El acceso a las GPUs sigue siendo un cuello de botella importante para los equipos de IA, ¿cómo está abordando TensorWave este desafío?

Estamos abordando estos cuellos de botella primero a través de la independencia de suministro: al construir sobre AMD, evitamos las peores limitaciones de suministro de otros fabricantes de chips, y pasamos la disponibilidad a los clientes. La independencia de suministro a través de AMD asegura que nuestros clientes no queden atrapados esperando en la misma cola que todos los demás.

Existen brechas en el ecosistema de infraestructura de IA porque muchos jugadores están construyendo soluciones similares, creando mucho solapamiento. Eso a menudo proviene de una falta de conciencia sobre lo que está sucediendo en todo el mercado. El primer paso para cerrar esas brechas es entender quién está haciendo qué, dónde hay oportunidades de colaboración, dónde la competencia puede impulsar la innovación, y finalmente, cómo el ecosistema puede mejorar en su conjunto. Una brecha única en el mercado de infraestructura de IA es el poder; incluso si las GPUs están disponibles, a menudo no hay suficiente energía para respaldar el creciente número de aplicaciones de IA. Resolver estos desafíos de recursos es nuestra clave para permitir un crecimiento y una innovación sostenibles en el futuro.

¿Cómo mejoran el rendimiento y la eficiencia de costo las características como el enfriamiento líquido directo y la red lista para UEC (Consorcio de Ethernet Universal)?

El enfriamiento líquido directo y la red lista para UEC son fundamentales para lo que hace que una nube de IA moderna sea viable económicamente a gran escala, y ambos son centrales en cómo hemos diseñado TensorWave.

Sobre DLC: las generaciones más recientes de aceleradores, AMD’s MI355X y MI455X, funcionan a envolturas térmicas que el aire simplemente no puede manejar de manera eficiente. Estamos hablando de 1400W+ de TDP por GPU. El enfriamiento líquido directo elimina el calor en la fuente a través de placas frías o diseños de inmersión, lo que hace tres cosas para nuestros clientes. Primero, permite una densidad de rack sustancialmente mayor, 120-300kW+ por rack en lugar de 30 a 40kW, lo que comprime el pie de impresión y reduce los costos de distribución de energía y espacio por megavatio. Segundo, impulsa el PUE hacia 1.1, versus 1.4 a 1.5 para las instalaciones enfriadas por aire heredadas; a nuestra escala, eso se traduce en decenas de millones de dólares en ahorros de servicios públicos anuales. Tercero, y a menudo subestimado, el DLC mantiene el silicio a temperaturas más bajas y estables, lo que preserva las tasas de reloj sostenidas durante largas sesiones de entrenamiento y extiende la vida útil del hardware. Ese último punto es enormemente importante cuando se está garantizando un activo de seis años.

Sobre UEC: la especificación del Consorcio de Ethernet Ultra, que AMD ayudó a fundar y que alcanzó la versión 1.0 en 2025, nos da una red de tejido de silicona mercantil abierta que iguala o supera a InfiniBand en las métricas que realmente importan para el entrenamiento distribuido. La latencia de cola en colecciones, ancho de banda efectivo bajo contención y comportamiento de escalado más allá del umbral de 100,000 GPUs. La historia de costos es estructural. Ethernet tiene una media docena de proveedores de silicio mercantil que compiten en precio, versus una alternativa de una sola fuente que lleva un premio bien documentado. Para un sitio de 100MW, elegir una red lista para UEC en lugar de una red de tejido propietaria es típicamente una decisión de CAPEX de nueve cifras, y las ventajas operativas se acumulan porque nuestros ingenieros de red ya conocen Ethernet.

Tomadas en conjunto, estas elecciones nos permiten ofrecer una mejor economía de entrenamiento que las nubes heredadas. Los clientes ven más FLOPs efectivos por dólar, tiempos de paso más predecibles en trabajos grandes y una carrera clara a medida que los modelos escalan. Para nosotros, significan una estructura de costos más defensible y la flexibilidad para ofrecer tarifas competitivas de verdad.

¿Puede compartir ejemplos de cómo los clientes están utilizando TensorWave para entrenar modelos de IA a gran escala?

Los clientes de TensorWave necesitan computación de IA de alto rendimiento sin escasez de GPUs, bloqueo de proveedor o costos descontrolados. TensorWave ofrece una nube de AMD exclusiva – abierta, optimizada para memoria y lista para producción – lo que da a los equipos infraestructura de IA escalable que es accesible, flexible y rentable.

Por ejemplo, Modular eligió ejecutar su pila de inferencia MAX en la infraestructura de GPU de AMD de TensorWave porque TensorWave ofrece una economía de costos significativamente mejor para la inferencia de IA a gran escala. Al ejecutar MAX de Modular en el cómputo de AMD de TensorWave, logran un costo por millón de tokens un 70% más bajo, un rendimiento un 57% más rápido y un costo general menor que otras pilas de GPU.

Con el dominio continuo de Nvidia, ¿dónde ve las mayores oportunidades para los desafiantes como TensorWave?

En un espacio de computación de IA dominado por unos pocos jugadores importantes, los mayores desafíos son lograr la velocidad de mercado, ofrecer la última tecnología y brindar un soporte excepcional. Los hiperescaladores a menudo ofrecen una amplia gama de opciones, pero luchan por brindar el enfoque o la orientación personalizada que los clientes necesitan. Para romper este espacio dominado, TensorWave se centra en nuestras fortalezas, mientras colabora para ofrecer la mejor tecnología posible y asegurando que los clientes tengan opciones alternativas.

Las dos mayores oportunidades para los desafiantes del dominio de la infraestructura de IA de Nvidia están en los ecosistemas abiertos y la memoria. Los ecosistemas abiertos eliminan el bloqueo en cada capa (hardware, interconexión y software). Además, la memoria asociada con el entrenamiento/inferencia optimizado por red invierte la curva de costos.

Mirando cinco años hacia adelante, ¿cómo vislumbra el futuro de la infraestructura de IA y el papel de TensorWave en él?

Durante años, el objetivo en la infraestructura de IA era hacerla buena, estable y fácil de usar. La próxima fase será sobre lo que puedes ofrecer encima de eso – servicios administrados, IA como Servicio, cualquier cosa que ayude a los clientes a implementar y escalar más fácilmente.

Estamos al comienzo de una transformación importante. La tecnología de IA sigue avanzando, y las alternativas como AMD se vuelven más y más viables. A medida que eso sucede, los clientes se volverán más cómodos al implementarlas a gran escala, y todo el ecosistema comenzará a abrirse y crecer.

Gracias por la gran entrevista, cualquier persona que desee aprender más sobre esta innovadora empresa de infraestructura de IA debe visitar TensorWave.

Antoine es un líder visionario y socio fundador de Unite.AI, impulsado por una pasión inquebrantable por dar forma y promover el futuro de la IA y la robótica. Un empresario serial, cree que la IA será tan disruptiva para la sociedad como la electricidad, y a menudo se le escucha hablando con entusiasmo sobre el potencial de las tecnologías disruptivas y la AGI. Como un futurista, está dedicado a explorar cómo estas innovaciones darán forma a nuestro mundo. Además, es el fundador de Securities.io, una plataforma enfocada en invertir en tecnologías de vanguardia que están redefiniendo el futuro y remodelando sectores enteros.