Líderes de opinión
El Santo Grial del Poder Computacional en IA

A pesar del progreso increíble, las capacidades de la inteligencia artificial todavía están limitadas en comparación con las expectativas del mundo real. Construimos modelos complejos, ejecutamos redes neuronales y probamos algoritmos, pero a veces el progreso se estanca en los lugares donde menos lo esperamos.
El problema a menudo no radica en los algoritmos o los datos, sino en el poder computacional, los recursos que permiten que los modelos aprendan y operen a la escala necesaria. Entonces, ¿qué hay detrás de esta barrera? Examinemos el recurso crítico sin el cual incluso los proyectos de IA más prometedores no pueden salir del laboratorio.
El déficit de cálculo y sus consecuencias
Para entender este tema, comencemos con la historia de las comunicaciones móviles. Cuando aparecieron las redes 3G y posteriormente 4G, Internet ya era casi global. Y cuando se introdujo 5G, mucha gente se hizo una pregunta perfectamente razonable: “Internet será más rápido, pero ¿qué hay de qué?”.
En realidad, el aumento de la velocidad de Internet no se reduce a la conveniencia del usuario. Transforma todo el paisaje tecnológico. Surgen casos de uso que anteriormente eran imposibles. 5G resultó ser mucho más rápido que 4G, y este salto no fue gradual, como el salto de 1G a 2G, sino exponencial. Como resultado, aparecen nuevas aplicaciones, dispositivos y clases enteras de tecnología.
Las cámaras de tráfico, los sistemas de análisis de tráfico en tiempo real y los mecanismos de regulación de tráfico automatizados, todo esto se vuelve posible gracias a las nuevas tecnologías de comunicación. La policía obtiene nuevas formas de intercambiar datos, y en el espacio, los telescopios y satélites pueden transmitir vastas cantidades de información a la Tierra. Un salto cualitativo en una tecnología fundamental impulsa el desarrollo de todo el ecosistema.
El mismo principio se aplica al poder computacional. Imagina la capacidad de cálculo total de la humanidad en unidades hipotéticas. Hoy en día, podríamos tener, digamos, diez de esas unidades. Con ellas, podemos generar imágenes y videos, escribir textos, crear materiales de marketing… Esto ya es sustancial, pero el rango de aplicaciones es limitado principalmente.
Ahora imagina que tuviéramos no diez, sino mil de esas unidades. De repente, las tecnologías que anteriormente eran demasiado costosas se vuelven factibles, y las startups que se abandonaron debido a los altos costos computacionales comienzan a tener sentido económico.
Tomemos, por ejemplo, los robotaxis. Hoy en día, dependen en gran medida de computadoras locales relativamente débiles instaladas en el vehículo. Sin embargo, si la señal de video se transmitiera a la nube con enormes recursos computacionales, los datos podrían procesarse y devolverse en tiempo real. Y esto es crucial: un coche que se mueve a 100 km/h debe tomar decisiones en fracciones de segundo, ir recto, girar, frenar o no frenar.
Es ahí cuando una industria de robotaxis completamente funcional se vuelve posible, no solo soluciones aisladas como las que vemos hoy. Cualquier computadora local instalada en un coche está inherentemente limitada de una manera que un sistema conectado no lo es. Cuanto más rápido podamos escalarlo, más rápido cambiará el mundo que nos rodea.
Acceso a chips y el “boleto de oro” en IA
En el contexto del poder computacional, surge la pregunta: ¿está convirtiéndose el acceso a chips modernos en el “boleto de oro” para entrar en el mercado de IA? ¿Están creando los grandes jugadores que firman contratos con fabricantes de chips, o los producen ellos mismos, una brecha entre las grandes empresas y todos los demás?
Una brecha de este tipo solo surge en un caso: si un modelo de negocio se centra exclusivamente en vender chips a grandes clientes. En la práctica, fabricantes como NVIDIA apuntan a ofrecer soluciones en la nube para todos. Sus chips optimizados están disponibles en la nube tanto para OpenAI como para desarrolladores independientes.
Incluso las alianzas estratégicas entre empresas como Google, Anthropic, Microsoft, OpenAI, Amazon y NVIDIA son principalmente asociaciones para la utilización compartida de recursos, en lugar de intentos de cerrar el mercado. Este modelo permite la asignación eficiente del poder computacional, acelerando así el desarrollo tecnológico.
Si rastreamos la cadena de uso de recursos computacionales, comienza con el usuario final. Por ejemplo, cuando usas WhatsApp para videollamadas y mensajería, la empresa debe asegurarse de que el servicio funcione: almacenar y procesar datos, ejecutar modelos para la limpieza de video, agregar efectos y mejorar la calidad de la imagen.
Mantener servidores propietarios es costoso, se vuelven obsoletos y requieren un mantenimiento constante. Es por eso que han surgido soluciones en la nube, “la nube”. El mercado está dominado por tres jugadores: Google Cloud, AWS y Microsoft Azure. Otras empresas no pueden competir a este nivel: la escala de la infraestructura es demasiado vasta.
Los servicios en la nube son grandes centros de datos con enfriamiento, suministro de energía y mantenimiento las 24 horas. Albergan servidores y chips especializados de fabricantes como NVIDIA, AMD y otros, permitiendo procesos computacionales a gran escala.
Aquí llegamos a la pregunta clave que discutí en mi columna anterior sobre centros de datos, y quiero continuar aquí: ¿cuál es el principal cuello de botella en este sistema? ¿Es la escasez de electricidad o la dificultad de enfriar los centros de datos en regiones donde el clima lo hace especialmente desafiante? En realidad, el secreto radica en los chips en sí…
El santo grial
¿Por qué NVIDIA hoy en día está valorada en alrededor de $5 billones y se cuenta entre las empresas más exitosas del mundo? La razón es simple: NVIDIA produce los chips en los que se entrenan y ejecutan los modelos de IA.
Cada uno de estos chips consume enormes cantidades de electricidad cuando se entrenan modelos grandes o se procesan volúmenes de datos cada vez mayores. Pero, ¿cómo se utiliza eficientemente esa energía? Ahí es donde entran en juego los chips especializados; manejan tareas específicas mucho más eficientemente que las GPU de propósito general.
Los modelos de IA difieren. OpenAI, por ejemplo, tiene una familia de modelos, Anthropic otra. Los conceptos pueden ser similares, pero las estructuras matemáticas y los procesos computacionales son diferentes. Un chip de propósito general, cuando se entrena en modelos de OpenAI (como ChatGPT) versus modelos de Anthropic (como Claude), actúa como una “herramienta de un tamaño que se adapta a todos”, consumiendo, digamos, 100,000 horas de cálculo para un modelo y 150,000 para otro. La eficiencia varía significativamente y rara vez es óptima.
Las empresas resuelven este problema produciendo chips especializados. Por ejemplo, un chip puede estar optimizado para la arquitectura de ChatGPT y entrenarla en, digamos, 20 minutos, mientras que otro está adaptado a la arquitectura de Anthropic y también completa el entrenamiento en 20 minutos. El consumo de energía y el tiempo de entrenamiento se reducen múltiples veces en comparación con un chip de propósito general.
Cuando estos chips se venden a grandes empresas, como Google, Amazon, Microsoft o Azure, se ofrecen como productos independientes. Los usuarios pueden elegir, por ejemplo, un chip optimizado para un modelo YOLO o un chip más simple y económico para una arquitectura Xen. De esta manera, las empresas obtienen acceso a recursos computacionales precisamente adaptados a sus tareas, en lugar de comprar GPU de propósito general. Si un usuario tiene diez funciones diferentes, puede usar diez chips especializados diferentes.
La tendencia es clara: los chips especializados están reemplazando gradualmente a los de propósito general. Muchas startups ahora trabajan con ASIC (Circuitos Integrados Específicos de Aplicación), chips diseñados para tareas computacionales específicas. Los primeros ASIC aparecieron para la minería de Bitcoin: inicialmente, la criptomoneda se minaba en GPU de NVIDIA, luego se crearon chips exclusivamente para Bitcoin y no podían realizar otras tareas.
Lo veo en la práctica: la misma configuración de hardware puede producir resultados completamente diferentes dependiendo de la tarea. En mi startup Introspector, estudiamos estos procesos en proyectos reales, y como asesor estratégico de Keymakr, observo cómo los clientes obtienen eficiencia de los chips especializados, lo que permite que los modelos se ejecuten más rápido. Proyectos que anteriormente se estancaban durante el entrenamiento o la inferencia alcanzan resultados estables con este enfoque.
Sin embargo, la especialización estrecha conlleva riesgos. Un chip optimizado para la arquitectura de Anthropic no funcionará para entrenar modelos de OpenAI, y viceversa. Cada nueva arquitectura requiere una nueva generación de hardware, lo que crea un riesgo de “obsolescencia” a gran escala. Si Anthropic lanza una nueva arquitectura mañana, todos los chips de la generación anterior se vuelven ineficientes o inútiles. Producir nuevos chips cuesta miles de millones de dólares y puede tomar años.
Esto crea un dilema: ¿debemos hacer chips especializados que funcionen perfectamente en un escenario estrecho, o seguir produciendo chips de propósito general que resuelvan todas las tareas de manera moderadamente buena pero no requieran un reemplazo completo cuando las arquitecturas cambian?
La eficiencia en este contexto se mide por tres parámetros principales: tiempo de ejecución, consumo de electricidad y generación de calor. Estos parámetros están directamente relacionados: cuanto más tiempo se ejecuta un sistema, más energía consume y más calor produce. Reducir un parámetro automáticamente mejora los otros dos.
Aquí radica el “santo grial” del rendimiento de IA: si al menos uno de los parámetros de eficiencia fundamentales se puede optimizar, los otros parámetros mejoran casi automáticamente también.
Proceso sostenible
Con el aumento del uso de chips especializados, el problema de los riesgos de sobreproducción se ha vuelto apremiante. Actualmente, el exceso de equipo es ya significativo, y las empresas están abordando este problema de diversas maneras sostenibles, incluyendo el reciclaje de los recursos existentes.
Reciclar equipos se ha convertido en un elemento clave del desarrollo sostenible en las industrias de alta tecnología. Los chips contienen cantidades sustanciales de metales preciosos y base, oro, cobre, aluminio, paladio y materiales de tierras raras, así como materiales utilizados en microchips y transistores. Una vez que el equipo se vuelve obsoleto, estos recursos valiosos se pueden devolver a la producción, reduciendo el costo de los nuevos componentes mientras se reduce simultáneamente la huella ambiental de la industria.
Algunas fábricas especializadas y empresas se centran en el reciclaje y la extracción de metales preciosos de componentes obsoletos. Por ejemplo, algunas instalaciones utilizan procesos hidrometalúrgicos y métodos químicos avanzados para extraer oro y cobre con un alto grado de pureza, lo que permite que estos materiales se reutilicen en nuevos chips.
Además, las empresas están implementando modelos de ciclo cerrado, donde el equipo viejo se actualiza o se integra en nuevas soluciones, reduciendo así la necesidad de extracción de recursos primarios. Estos enfoques no solo ayudan a minimizar los residuos, sino que también reducen la huella de carbono de la producción, ya que la minería y el procesamiento de metales tradicionales requieren una gran cantidad de energía.
La gestión sostenible del ciclo de vida de los chips y el equipo podría convertirse en un estándar de la industria, donde el progreso tecnológico se alinea con la responsabilidad ambiental.












