Financiación
Iceotope obtiene 26 millones de dólares en la ronda de financiación Serie B, ya que la infraestructura de AI empuja los sistemas de enfriamiento a sus límites

El especialista en enfriamiento líquido con sede en el Reino Unido, Iceotope, ha recaudado 26 millones de dólares en una ronda de financiación Serie B mientras la demanda de infraestructura de AI continúa sometiendo a prueba los métodos de enfriamiento tradicionales de los centros de datos.
La ronda fue liderada por Barclays Climate Ventures y Two Seas Capital, con la participación de inversores existentes, incluyendo Edinv, ABC Impact, Northern Gritstone y British Business Bank.
La empresa dijo que el nuevo capital se utilizará para expandir la ingeniería y el desarrollo de productos, aumentar su cartera de patentes y profundizar en las asociaciones a lo largo del ecosistema de infraestructura de AI. La financiación llega en un momento crucial para la industria, ya que los aceleradores de AI y los clústeres de GPU cada vez más voraces de energía empujan las densidades de rack hacia niveles que los sistemas de enfriamiento por aire convencionales luchan por manejar.
El crecimiento de la IA está creando un problema térmico
La expansión rápida de la IA generativa ha creado un desafío de infraestructura que se extiende mucho más allá del poder de cálculo solo. Los servidores de AI modernos consumen enormes cantidades de electricidad, y el calor generado por las densas implementaciones de GPU se ha convertido en uno de los cuellos de botella más significativos en la escalabilidad de los centros de datos de AI.
Los investigadores de la industria en SemiAnalysis proyectan que la capacidad de los aceleradores de AI enfriados por líquido podría crecer desde aproximadamente 3 GW hasta 40 GW dentro de dos años, a medida que los proveedores de hiperscale y colocation escalen las implementaciones de AI.
Iceotope cree que las arquitecturas de enfriamiento convencionales están llegando a sus límites prácticos. Si bien el enfriamiento por líquido directo al chip ha ganado tracción, la empresa argumenta que enfriar solo los procesadores ya no es suficiente para los sistemas de AI de próxima generación, donde los componentes de memoria, almacenamiento, redes y entrega de energía también generan cargas de calor sustanciales.
Ese desafío se vuelve aún más pronunciado fuera de los centros de datos de hiperscale. A medida que las cargas de trabajo de AI se mueven cada vez más hacia entornos empresariales y despliegues de borde, las organizaciones se enfrentan al problema de operar sistemas de alto rendimiento en ubicaciones que carecen de infraestructura de enfriamiento especializada.
Un enfoque diferente para el enfriamiento líquido
Fundada en 2005, Iceotope comenzó como una empresa de investigación enfocada en “computación verde” antes de evolucionar hacia una especialista en enfriamiento líquido de precisión para infraestructura de AI, entornos de HPC y computación de borde.
En lugar de confiar únicamente en placas frías conectadas a los procesadores, Iceotope utiliza lo que llama un enfoque de “enfriamiento directo a todo”. Sus sistemas circulan fluido dieléctrico no conductor a través de diseños de chasis sellados que enfrían todos los componentes principales que generan calor dentro del servidor.
La empresa dice que este diseño permite que la infraestructura funcione de manera más eficiente mientras reduce el consumo de agua y disminuye el uso general de energía en comparación con los sistemas de enfriamiento por aire tradicionales. Iceotope también enfatiza que sus sistemas de enfriamiento están diseñados para funcionar en una amplia gama de entornos, incluidos despliegues empresariales, entornos industriales y ubicaciones de borde donde la gestión térmica es particularmente difícil.
Según la empresa, su tecnología puede reducir el uso de energía hasta un 40% y el consumo de agua hasta un 96% en comparación con los métodos de enfriamiento convencionales.
Patentes y asociaciones de ecosistema
Una parte importante de la estrategia de Iceotope gira en torno a la propiedad intelectual y la integración del ecosistema. La empresa anunció recientemente que superó las 200 patentes concedidas y pendientes relacionadas con tecnologías de enfriamiento líquido, incluyendo arquitectura de chasis, sistemas de fluido dieléctrico y gestión térmica a nivel de rack.
Iceotope también ha estado construyendo asociaciones con fabricantes de hardware, proveedores de hiperscale y proveedores de infraestructura. Su tecnología ha sido presentada junto con sistemas de empresas como Intel, HPE y Giga Computing en los últimos años.
El mercado más amplio de infraestructura de AI se centra cada vez más en la sostenibilidad, así como en el rendimiento. El enfriamiento ya representa una parte significativa del consumo de energía de los centros de datos, y los operadores están bajo presión para reducir tanto el uso de energía como los requisitos de agua a medida que las implementaciones de AI se escalan a nivel global.
El enfriamiento se convierte en fundamental para el futuro de la infraestructura de AI
A medida que los sistemas de AI continúan escalando, la gestión térmica se está convirtiendo cada vez más en una de las restricciones de ingeniería definitorias de la informática moderna. Se espera que los clústeres de AI futuros consuman dramáticamente más energía que la infraestructura empresarial tradicional, lo que obligará a la industria a reconsiderar cómo se diseñan y despliegan físicamente los servidores, el equipo de redes y los aceleradores.
Este cambio podría tener implicaciones que van mucho más allá de los centros de datos de hiperscale. Las tecnologías de enfriamiento avanzadas pueden influir eventualmente en dónde se pueden operar los sistemas de AI, permitiendo la computación de alta densidad en entornos que anteriormente eran impracticables debido al calor, el ruido o las limitaciones de energía. Esto incluye sitios industriales, hospitales, infraestructura de telecomunicaciones, entornos de defensa y despliegues de borde donde los sistemas de enfriamiento convencionales son difíciles de mantener.
La transición también puede reconfigurar la economía de la infraestructura de AI en sí. A medida que el consumo de energía aumenta junto con la adopción de AI, las mejoras en la eficiencia del enfriamiento podrían volverse cada vez más importantes para controlar los costos operativos, reducir el consumo de agua y cumplir con los objetivos ambientales. Con el tiempo, la gestión térmica puede evolucionar de un problema de ingeniería de backend a un factor competitivo importante que influye en cómo y dónde se entregan los servicios de AI.












