Contáctenos

El problema del billón de dólares de la IA

Líderes del pensamiento

El problema del billón de dólares de la IA

mm

Al entrar en 2025, el sector de la inteligencia artificial se encuentra en un punto de inflexión crucial. Si bien la industria continúa atrayendo niveles de inversión y atención sin precedentes, especialmente dentro del panorama de la IA generativa, varias dinámicas subyacentes del mercado sugieren que nos encaminamos hacia un gran cambio en el panorama de la IA el próximo año.

Basándome en mi experiencia liderando una startup de IA y observando la rápida evolución de la industria, creo que este año traerá muchos cambios fundamentales: desde grandes modelos conceptuales (LCM) que se espera que surjan como competidores serios hasta grandes modelos de lenguaje (LLM), el auge de hardware de IA especializado, hasta las grandes empresas tecnológicas que comienzan a desarrollar importantes infraestructuras de IA que finalmente las colocarán en posición de superar a startups como OpenAI y Anthropic y, quién sabe, tal vez incluso asegurar su monopolio de IA después de todo.

El desafío único de las empresas de IA: ni software ni hardware

La cuestión fundamental radica en cómo las empresas de IA operan en un terreno intermedio nunca visto entre los negocios tradicionales de software y hardware. A diferencia de las empresas de software puro que invierten principalmente en capital humano con gastos operativos relativamente bajos, o las empresas de hardware que realizan inversiones de capital a largo plazo con claras vías de retorno, las empresas de IA enfrentan una combinación única de desafíos que hacen que sus modelos de financiación actuales sean precarios.

Estas empresas requieren una inversión inicial masiva de capital para clústeres e infraestructura de GPU, gastando entre 100 y 200 millones de dólares anuales solo en recursos informáticos. Sin embargo, a diferencia de las empresas de hardware, no pueden amortizar estas inversiones en periodos prolongados. En cambio, operan en ciclos cortos de dos años entre rondas de financiación, y en cada ocasión deben demostrar un crecimiento exponencial y un rendimiento de vanguardia para justificar su próximo aumento de valoración.

Problema de diferenciación de LLM

A este desafío estructural se suma una tendencia preocupante: la rápida convergencia de las capacidades de los modelos de lenguaje extensos (LLM). Las empresas emergentes, como unicornio Mistral AI y otros, han demostrado que los modelos de código abierto pueden lograr rendimiento comparables a sus contrapartes de código cerrado, pero la diferenciación técnica que antes justificaba valoraciones altísimas se está volviendo cada vez más difícil de mantener.

En otras palabras, si bien cada nuevo LLM ofrece un rendimiento impresionante basado en puntos de referencia estándar, no se está produciendo un cambio verdaderamente significativo en la arquitectura del modelo subyacente.

Las limitaciones actuales en este ámbito se derivan de tres áreas críticas: Disponibilidad de datos, ya que nos estamos quedando sin material de capacitación de alta calidad (como confirmado por Elon Musk recientemente); métodos de curación, ya que todos adoptan enfoques de retroalimentación humana similares iniciados por OpenAI; y arquitectura computacional, ya que dependen del mismo grupo limitado de hardware de GPU especializado.

Lo que está surgiendo es un patrón donde las ganancias provienen cada vez más de la eficiencia, más que de la escala. Las empresas se están enfocando en comprimir más conocimiento en menos tokens y en desarrollar mejores artefactos de ingeniería, como sistemas de recuperación como las RAG (generación aumentada por recuperación) de grafos. En esencia, nos estamos acercando a una meseta natural donde dedicar más recursos al problema produce rendimientos decrecientes.

Debido al ritmo de innovación sin precedentes de los últimos dos años, esta convergencia de capacidades de LLM está sucediendo más rápido de lo que nadie anticipó, creando una carrera contra el tiempo para las empresas que recaudaron fondos.

Con base en las últimas tendencias de investigación, la próxima frontera para abordar esta cuestión es el surgimiento de modelos conceptuales grandes (MCM) como una arquitectura nueva e innovadora que compite con los LLM en su dominio principal, que es la comprensión del lenguaje natural (NLP).

Técnicamente hablando, los LCM tendrán varias ventajas, entre ellas, la posibilidad de lograr un mejor rendimiento con menos iteraciones y la capacidad de lograr resultados similares con equipos más pequeños. Creo que estos LCM de próxima generación serán desarrollados y comercializados por equipos derivados, los famosos ex grandes tecnológicos que fundarán nuevas empresas emergentes para liderar esta revolución.

Desajuste en el cronograma de monetización

La compresión de los ciclos de innovación ha creado otro problema crítico: el desajuste entre el tiempo de comercialización y la monetización sostenible. Si bien estamos presenciando una velocidad sin precedentes en la verticalización de las aplicaciones de IA —con agentes de IA de voz, por ejemplo, pasando del concepto a productos rentables en tan solo unos meses—, esta rápida comercialización enmascara un problema más profundo.

Piensen en esto: una startup de inteligencia artificial valuada en 20 mil millones de dólares hoy probablemente necesitará generar alrededor de mil millones de dólares en ingresos anuales dentro de 1 o 4 años para justificar su salida a bolsa a un múltiplo razonable. Esto requiere no solo excelencia tecnológica, sino una transformación drástica de todo el modelo de negocios, desde el enfoque en I+D hasta el impulso a las ventas, todo ello manteniendo el ritmo de la innovación y gestionando enormes costos de infraestructura.

En ese sentido, las nuevas startups enfocadas en LCM que surgirán en 2025 estarán en mejores posiciones para captar financiación, con valoraciones iniciales más bajas que las convertirán en objetivos de financiación más atractivos para los inversores.

Escasez de hardware y nuevas alternativas

Analicemos más detenidamente la infraestructura. Hoy en día, cada nuevo clúster de GPU se compra incluso antes de que las grandes empresas lo construyan, lo que obliga a las pequeñas empresas a comprometerse con contratos a largo plazo con proveedores de la nube o a arriesgarse a quedar completamente excluidas del mercado.

Pero esto es lo realmente interesante: mientras todos se pelean por las GPU, se ha producido un cambio fascinante en el panorama del hardware que, en gran medida, todavía se pasa por alto. La arquitectura actual de GPU, llamada GPGPU (GPU de propósito general), es increíblemente ineficiente para lo que la mayoría de las empresas necesitan en producción. Es como usar una supercomputadora para ejecutar una aplicación de calculadora.

Por eso creo que el hardware especializado en IA será el próximo gran cambio en nuestra industria. Empresas como Groq y Cerebras están desarrollando hardware específico para inferencia, cuyo funcionamiento es entre 4 y 5 veces más económico que el de las GPU tradicionales. Si bien la optimización de los modelos para estas plataformas implica un mayor coste inicial de ingeniería, para las empresas que gestionan cargas de trabajo de inferencia a gran escala, las mejoras en la eficiencia son evidentes.

La densidad de datos y el auge de modelos más pequeños e inteligentes

Para avanzar hacia la próxima frontera de innovación en IA probablemente se necesitarán no solo mayor potencia computacional (especialmente para modelos grandes como los LCM), sino también conjuntos de datos más ricos y completos.

Curiosamente, los modelos más pequeños y eficientes están empezando a desafiar a los más grandes al aprovechar la densidad con la que se entrenan con los datos disponibles. Por ejemplo, modelos como FeeFree de Microsoft o Gema2B de Google funcionan con muchos menos parámetros (a menudo, entre 2 y 3 mil millones) pero alcanzan niveles de rendimiento comparables a los de modelos mucho más grandes, con 8 mil millones de parámetros.

Estos modelos más pequeños son cada vez más competitivos debido a su alta densidad de datos, lo que los hace robustos a pesar de su tamaño. Este cambio hacia modelos compactos, pero potentes, se alinea con las ventajas estratégicas que tienen empresas como Microsoft y Google: acceso a conjuntos de datos masivos y diversos a través de plataformas como Bing y Google Search.

Esta dinámica revela dos “guerras” críticas que se están desarrollando en la IA: una por la potencia de procesamiento y otra por los datos. Si bien los recursos computacionales son esenciales para superar los límites, la densidad de datos se está volviendo igualmente crítica (o más). Las empresas con acceso a grandes conjuntos de datos están en una posición única para entrenar modelos más pequeños con una eficiencia y solidez incomparables, consolidando su dominio en el cambiante panorama de la IA.

¿Quién ganará la guerra de la IA?

En este contexto, a todos nos gusta preguntarnos quién, en el panorama actual de la IA, está mejor posicionado para salir ganando. A continuación, presentamos algunos elementos para reflexionar.

Las principales empresas de tecnología han estado comprando por adelantado clústeres enteros de GPU antes de la construcción, lo que ha creado un entorno de escasez para los actores más pequeños. Pedido de más de 100,000 GPU de Oracle Y movimientos similares por parte de Meta y Microsoft ejemplifican esta tendencia.

Estas empresas, que han invertido cientos de miles de millones de dólares en iniciativas de IA, necesitan miles de ingenieros e investigadores especializados en IA. Esto genera una demanda de talento sin precedentes que solo se puede satisfacer mediante adquisiciones estratégicas, lo que probablemente dé lugar a la absorción de muchas empresas emergentes en los próximos meses.

Si bien el año 2025 se destinará a I+D a gran escala y a la construcción de infraestructura para dichos actores, en 2026 estarán en condiciones de actuar como nunca antes gracias a recursos incomparables.

Esto no significa que las pequeñas empresas de IA estén condenadas al fracaso, ni mucho menos. El sector seguirá innovando y generando valor. Es probable que algunas innovaciones clave en el sector, como los LCM, sean lideradas por actores emergentes más pequeños durante el próximo año, junto con Meta, Google/Alphabet y OpenAI con Anthropic, quienes actualmente trabajan en proyectos emocionantes.

Sin embargo, es probable que veamos una reestructuración fundamental en la financiación y valoración de las empresas de IA. A medida que el capital riesgo se vuelve más selectivo, las empresas deberán demostrar vías claras para lograr una economía unitaria sostenible, lo que supone un reto particular para las empresas de código abierto que compiten con alternativas propietarias con recursos suficientes.

En el caso específico de las empresas de IA de código abierto, el camino a seguir puede requerir centrarse en aplicaciones verticales específicas donde su transparencia y capacidades de personalización proporcionen claras ventajas sobre las soluciones propietarias.

Jean-Louis Quéguiner es el fundador y director ejecutivo de gladiaAnteriormente, se desempeñó como vicepresidente de datos, inteligencia artificial y computación cuántica en OVHcloud, uno de los principales proveedores de servicios en la nube de Europa. Tiene un máster en IA simbólica de la Universidad de Québec en Canadá y de Arts et Métiers ParisTech en París. A lo largo de su carrera, ha ocupado puestos importantes en diversas industrias, incluidos el análisis de datos financieros, las aplicaciones de aprendizaje automático para publicidad digital en tiempo real y el desarrollo de API de inteligencia artificial de voz.