Líderes de opinión
La lucha por la propiedad de la IA – Por qué los centros de datos importan más que nunca

Hace unos años, los centros de datos parecían algo puramente técnico e invisible – infraestructura oculta en el backend, rara vez discutida fuera de los círculos profesionales. Pero el crecimiento explosivo de la IA ha cambiado completamente esa imagen. Hoy en día, los centros de datos se han convertido en el nuevo “pozo de petróleo” de la economía digital: un activo estratégico alrededor del cual se están construyendo miles de millones en inversión, políticas gubernamentales y estrategias corporativas.
Las noticias recientes confirman esto. Anthropic anunció la construcción de sus propios centros de datos en EE. UU., con un costo de $50 mil millones, una cifra comparable a los presupuestos de los grandes megaproyectos de energía. Casi simultáneamente, X.AI y Nvidia revelaron un proyecto conjunto en Arabia Saudita, uno de los centros de datos más grandes de la región.
¿Por qué el tema de los centros de datos se ha vuelto tan global? ¿Por qué los principales jugadores se están alejando de los modelos de nube puros y están invirtiendo decenas de miles de millones en su propia capacidad? ¿Y cómo influye este cambio en la arquitectura de la IA, los sistemas de energía, la geopolítica y el surgimiento de modelos alternativos, desde los centros de datos árticos hasta los basados en el espacio?
Esto es lo que explora la columna a continuación.
El surgimiento global del interés en la propiedad de centros de datos
Cuando el consumo de recursos de computación se mide en millones de dólares al año, alquilar servidores en la nube es de hecho más rentable: las empresas no necesitan construir y mantener edificios, pagar por electricidad y enfriamiento, comprar equipo o actualizarlo regularmente. Pero cuando los gastos alcanzan decenas de miles de millones de dólares, la lógica cambia.
En ese punto, se vuelve más rentable construir sus propios centros de datos, contratar a ingenieros, comprar equipo y optimizar la infraestructura para sus necesidades específicas. La empresa deja de pagar los márgenes de los proveedores de nube y gana un control mucho mayor sobre el costo y la eficiencia de la computación.
Esta es la razón por la que la tendencia de construir centros de datos privados es más relevante para gigantes como OpenAI o Anthropic, empresas cuyas necesidades son tan grandes que la nube ya no está justificada económicamente.
Al mismo tiempo, es importante entender que el concepto de “centro de datos” es multiestratificado. Para algunas empresas, es principalmente un centro de almacenamiento de datos, discos, bases de datos y información de usuarios. Para otros, es también un centro de cálculo: servidores que ejecutan modelos como GPT, Claude o LLaMA, almacenando datos y realizando operaciones complejas al mismo tiempo. Esencialmente, hoy en día, un centro de datos es un gran “almacén” tecnológico que alberga miles de computadoras especializadas.
Y cuanto mayor sea la demanda de capacidad de IA, más estratégico y debatido se vuelve este “almacén”, lo que explica por qué los centros de datos ahora son discutidos no solo por ingenieros, sino también por inversores, formuladores de políticas y ejecutivos de alto nivel.
¿Qué importa más al construir centros de datos de IA: velocidad o calidad?
En realidad, ni la velocidad de construcción ni la “calidad” formal de un centro de datos es el principal impulsor. Las grandes empresas invierten en su propia infraestructura para reducir costos y ganar el control máximo sobre la computación.
La calidad de los modelos en sí misma preocupa a los jugadores de alto nivel mucho menos de lo que se podría pensar. La razón es simple: la brecha de calidad entre los líderes del mercado es mínima. Es muy similar a la industria automotriz: Volkswagen, Toyota, Honda – todos diferentes, pero ninguno puede adelantarse lo suficiente para monopolizar el mercado. Cada uno mantiene su participación estable.
El mercado de IA sigue una lógica similar. Los usuarios avanzados ya utilizan múltiples modelos simultáneamente: uno para programación, otro para generación de texto, un tercero para análisis o búsqueda. Los clientes corporativos hacen lo mismo. Por ejemplo, servicios como Grammarly no tienen su propio modelo en absoluto. Compran tokens de múltiples proveedores, Anthropic, OpenAI, Meta. Cuando llega una solicitud, el sistema selecciona automáticamente al proveedor: el que es más barato, más rápido o más preciso en ese momento. Si el texto es en inglés, va a GPT; si es en hindi, va a Claude; si LLaMA tiene las tarifas más bajas en ese momento, va allí. Esto es esencialmente un modelo de distribución de carga de estilo de bolsa de valores.
En conversaciones con clientes corporativos de Keymakr, veo cada vez más la misma tendencia: las grandes empresas han abandonado hace tiempo el enfoque de “un modelo – un proveedor”. Construyen tuberías de múltiples modelos donde las solicitudes se enrutan entre diferentes sistemas de IA dependiendo del costo, la latencia o la especificidad del idioma. Sin embargo, esta arquitectura coloca demandas significativamente más altas en los datos, específicamente, su limpieza, anotación, validación y coherencia. En este sentido, la infraestructura de datos se vuelve tan estratégica como los propios centros de datos: sin entrada de alta calidad, un sistema de múltiples modelos simplemente no funciona.
En última instancia, en esta arquitectura, la calidad del modelo se convierte en solo uno de los muchos parámetros. La clave es mantener la velocidad, la escalabilidad y la capacidad de manejar cargas de computación masivas. Y esto es precisamente lo que da a los centros de datos privados su valor estratégico: permiten a las empresas controlar el costo, el rendimiento y la estabilidad, mientras que tienen poco impacto en la calidad final del modelo.
En otras palabras, hoy en día, las empresas construyen centros de datos no por la velocidad o la calidad perfecta, sino por la economía y el control.
La geografía de los datos
Al decir “control”, me refiero a la geografía de los datos. Si una empresa trabaja con agencias gubernamentales, la ley a menudo prohíbe que los datos salgan del país. Las aplicaciones gubernamentales y cuasi militares utilizan activamente la IA en inteligencia, unidades de TI de defensa e servicios municipales. Pero es imposible dar a estos sistemas acceso a un modelo si el centro de datos está ubicado en una región con jurisdicción incierta o baja confianza. Es por eso que los gobiernos requieren que la capacidad de computación esté físicamente ubicada dentro del país.
Las grandes empresas entienden esto perfectamente. Si quieren participar en licitaciones gubernamentales, firmar contratos o procesar datos sensibles, necesitan infraestructura en regiones específicas y la capacidad de garantizar el cumplimiento de los estándares de seguridad. Esta restricción geográfica también impacta significativamente otro factor crítico en la construcción y operación de centros de datos: la energía.
Los centros de datos de IA consumen enormes cantidades de electricidad, tanto para ejecutar servidores como para enfriarlos. El enfriamiento a menudo cuesta más que la computación en sí. Esto crea limitaciones estrictas. En algunas regiones, los centros de datos están limitados a extraer una cierta cantidad de energía de la red; en otras, las emisiones de calor al medio ambiente están estrictamente reguladas. Exceder los límites resulta en multas y costosas mejoras de ingeniería.
Además, la electricidad se compra principalmente de empresas de energía estatales, que tienen sus propias estructuras de tarifas. No se puede simplemente “comprar toda la que se quiera”. Por ejemplo, hasta un cierto umbral, el precio es una tarifa; por encima de ella, otra. Si un centro de datos extrae más energía de la permitida durante los períodos pico, incurre automáticamente en multas. Por esta razón, a menudo les resulta más económico a las grandes empresas construir sus propios centros de datos cerca de sus propias plantas de energía.
Esto lleva naturalmente a la idea de desarrollar generación de energía privada, como granjas solares, plantas de gas o pequeñas centrales hidroeléctricas. Pero todas estas soluciones tienen limitaciones. Los gases y el carbón producen emisiones. La energía hidroeléctrica altera los ecosistemas de los ríos. La energía nuclear es la más limpia en términos de emisiones, pero solo los gobiernos pueden construir plantas nucleares.
Y es precisamente en este punto donde comienzan a surgir nuevos conceptos…
Soluciones alternativas
La opción más aparente es reubicar los centros de datos en regiones con climas fríos naturales, como el norte de Canadá, los territorios del norte de Escandinavia o áreas remotas del Ártico. Allí, la naturaleza en sí resuelve el problema del enfriamiento, reduciendo drásticamente los costos de operación.
El siguiente paso es “centros de datos submarinos”. La computación se lleva a cabo bajo el agua, con el entorno marino frío que proporciona enfriamiento natural. Pero este enfoque también tiene desventajas. Los ambientalistas ya han expresado preocupaciones. Por ejemplo, cerca de Islandia del Sur, donde pasa la Corriente del Golfo, algunos han sugerido que el despliegue a gran escala de centros de datos submarinos podría afectar los procesos climáticos locales, potencialmente incluso alterar el comportamiento de las corrientes oceánicas. Las observaciones iniciales de tales desviaciones ya se han registrado.
También hay opciones más futuristas. Recientemente, discutí el concepto de centros de datos basados en el espacio con colegas. La idea de lanzar infraestructura de computación a la órbita ha existido durante mucho tiempo; sin embargo, la tecnología lo ha llevado al umbral de la factibilidad práctica, con una base técnica lista.
¿Por qué el espacio parece atractivo? Resuelve inmediatamente dos limitaciones principales: enfriamiento y electricidad. Las temperaturas en el espacio cercano a la Tierra son extremadamente bajas, lo que hace que la disipación de calor sea casi gratuita. La electricidad también no es un problema: se pueden desplegar paneles solares masivos, al igual que los telescopios espaciales despliegan sus espejos. En el espacio, no hay polvo, no hay clima, no hay sombreado. Los paneles proporcionan energía estable durante todo el día con prácticamente ningún mantenimiento requerido.
La comunicación con la Tierra es un desafío de ingeniería separado, pero es completamente resoluble. Un enfoque es utilizar sistemas de satélites como Starlink, pero con canales mucho más anchos. Los enlaces de radio pueden, en principio, manejar estos volúmenes, y los enlaces ópticos, canales basados en luz con una gran anchura de banda, se pueden utilizar si es necesario. Los ingenieros definitivamente encontrarán una solución aquí.
En general, la infraestructura espacial es más una rama de desarrollo futuro, pero discutirlo ya no parece ciencia ficción, especialmente dado que la demanda de computación está creciendo mucho más rápido que la nueva capacidad en la Tierra.
Es digno de mencionar las noticias más recientes: Google anunció su proyecto Suncatcher, destinado a crear centros de datos orbitales de IA. Según el plan, los satélites equipados con chips TPU estarán alimentados por energía solar y transmitirán datos a través de canales ópticos. Google afirma que esta solución podría proporcionar hasta ocho veces mayor eficiencia en la producción de energía que los sistemas terrestres. Los primeros prototipos de satélites están programados para lanzarse tan pronto como en 2027.
El impacto de las regulaciones
Cuando se trata de regulaciones que afectan a los centros de datos, su impacto ambiental y si los marcos legales podrían “empujar” efectivamente a este mercado hacia el espacio o bajo el agua, la pregunta sigue abierta.
Cada país actúa de manera diferente, implementando regulaciones de acuerdo con sus planes a largo plazo. No es un secreto que Europa, por ejemplo, tiene reglas más estrictas, que frenan el desarrollo de la IA. EE. UU., por otro lado, adopta un enfoque más pragmático: las leyes suelen escribirse para permitir que la innovación y el crecimiento continúen. Un fuerte lobby tecnológico en California, hogar de empresas como Nvidia, Apple, Microsoft y Meta, hace que una prohibición total de la IA sea poco probable. Eso significa que la tecnología seguirá avanzando.
Vivimos en una era en la que “pensar fuera de la caja” se cultiva tanto en Occidente como en Asia, y los ejemplos de Elon Musk y Steve Jobs siguen inspirando proyectos ambiciosos. Así que quizás la computación en el espacio es el próximo paso lógico después de todo.










