Contáctenos

Google Cloud Next 2025: Duplicando la apuesta por la IA con silicio, software y un ecosistema de agentes abiertos

Anuncios

Google Cloud Next 2025: Duplicando la apuesta por la IA con silicio, software y un ecosistema de agentes abiertos

mm

Las Vegas será la anfitriona de Google Cloud próximo 2025Un evento que se desarrolla en un momento crítico para la industria tecnológica. La inteligencia artificial... carrera armamentista entre los titanes de las nubes Amazon Web Services (AWS), Microsoft Azure y Google Cloud están en rápida expansión. Google, a menudo considerado el tercer contendiente a pesar de su formidable capacidad tecnológica y su profunda experiencia en investigación en IA, aprovechó la etapa de Cloud Next para articular una estrategia integral y agresiva dirigida directamente al mercado de IA empresarial.

La narrativa, presentada por el director ejecutivo de Google Cloud, Thomas Kurian, y compartida por el director ejecutivo de Google y Alphabet, Sundar Pichai, se centró en convertir la transformación de la IA de una mera posibilidad a una realidad tangible. Google subrayó su supuesto impulso, citando más de 3,000 avances de productos en el último año, un aumento de veinte veces en... Plataforma de inteligencia artificial Vertex uso desde el evento Cloud Next anterior, más de cuatro millones de desarrolladores están trabajando activamente con él Familia de modelos Géminisy presentó más de 500 historias de éxito de clientes durante la conferencia.

Sin embargo, Google Cloud Next 2025 fue más que una simple exhibición de actualizaciones incrementales o métricas impresionantes. También reveló una ofensiva multifacética. Al lanzar un potente silicio personalizado optimizado para la inferencia (el TPU de madera de hierro), refinando su cartera de modelos de IA insignia con un enfoque en la practicidad (Gemini 2.5 Flash), abriendo su vasta infraestructura de red global a las empresas (WAN en la nube), y al hacer una importante apuesta estratégica en un ecosistema abierto e interoperable para agentes de IA (el protocolo Agent2Agent), Google se está posicionando agresivamente para definir la próxima fase evolutiva de la IA empresarial, lo que la empresa denomina cada vez más “era agencial."

Discurso inaugural de Google Cloud Next 25: La nueva forma de acceder a la nube

Ironwood, Gemini y el efecto red

Un aspecto central de las ambiciones de Google en materia de IA es su continua inversión en silicio personalizado. La estrella de Cloud Next 2025 fue Ironwood, la séptima generación de la Unidad de Procesamiento Tensorial (TPU) de Google. Esencialmente, Ironwood se presenta como la primera TPU diseñada específicamente para... AI inferencia – el proceso de utilizar modelos entrenados para hacer predicciones o generar resultados en aplicaciones del mundo real. 

Las afirmaciones de rendimiento de Ironwood son sustanciales. Google detalló configuraciones que escalan hasta la impresionante cifra de 9,216 chips refrigerados por líquido interconectados en un único módulo. Se afirma que esta configuración más grande ofrece una asombrosa potencia de cómputo de 42.5 exaflops. Google afirma que esto representa más de 24 veces la potencia de cómputo por pod de El Capitán, actualmente clasificada como la supercomputadora más poderosa del mundo.

Si bien es impresionante, es importante tener en cuenta que estas comparaciones suelen implicar diferentes niveles de precisión numérica, lo que dificulta la equivalencia directa. No obstante, Google considera que Ironwood es más de diez veces mejor que su anterior generación de TPU de alto rendimiento.

Más allá del procesamiento puro, Ironwood cuenta con avances significativos en memoria e interconectividad en comparación con su predecesor, Trillium (TPU v6).

Igualmente importante es el énfasis en la eficiencia energética. Google afirma que Ironwood ofrece el doble de rendimiento por vatio que Trillium y es casi 30 veces más eficiente energéticamente que su primera TPU en la nube de 2018. Esto aborda directamente la creciente limitación de la disponibilidad de energía en el escalado de centros de datos para IA.

Comparación de generaciones de Google TPU: Ironwood (v7) vs. Trillium (v6)

Feature Trillium (TPU v6) Ironwood (TPU v7) Factor de mejora
Enfoque primario Entrenamiento e inferencia Inferencia Especialización
Computación/chip de pico No directamente comparable (diff gen) 4,614 TFLOPs (FP8 probable)
Capacidad/Chip HBM 32 GB (estimado en base a una afirmación de 6x) 192 GB 6x
Ancho de banda/chip HBM ~1.6 Tbps (estimado en base a 4.5x) 7.2 Tbps 4.5x
Ancho de banda ICI (bidir.) ~0.8 Tbps (estimado en base a 1.5x) 1.2 Tbps 1.5x
Rendimiento/vatio vs. generación anterior Línea de base para comparación 2x frente a Trillium 2x
Rendimiento/vatio vs. TPU v1 (2018) ~15x (estimado) Casi 30x ~2x frente a Trillium


Nota: Algunas cifras de Trillium se estiman con base en los factores de mejora que Google afirma para Ironwood. La comparación de los picos de cómputo es compleja debido a las diferencias generacionales y las posibles variaciones de precisión.

Ironwood forma una parte clave del concepto de “hipercomputadora de IA” de Google: una arquitectura que integra hardware optimizado (incluidas TPU y GPU como Blackwell de Nvidia y próximo Vera rubin), software (como el entorno de ejecución de aprendizaje automático distribuido Pathways), almacenamiento (Hyperdisk Exapools, Managed Lustre) y redes para abordar cargas de trabajo de IA exigentes.

En el frente de modelos, Google presentó Gemini 2.5 Flash, un contrapunto estratégico para la gama alta. Géminis 2.5 ProMientras que Pro busca la máxima calidad para razonamientos complejos, Flash está optimizado explícitamente para baja latencia y rentabilidad, lo que lo hace adecuado para aplicaciones de gran volumen y en tiempo real, como interacciones de servicio al cliente o resúmenes rápidos.

Gemini 2.5 Flash cuenta con un "presupuesto de pensamiento" dinámico que ajusta el procesamiento según la complejidad de la consulta, lo que permite a los usuarios optimizar el equilibrio entre velocidad, coste y precisión. Este enfoque simultáneo en un chip de inferencia de alto rendimiento (Ironwood) y un modelo optimizado en coste/latencia (Gemini Flash) subraya el impulso de Google hacia lo práctico. operacionalización de IA, reconociendo que el costo y la eficiencia de ejecutar modelos en producción se están convirtiendo en preocupaciones primordiales para las empresas.

Como complemento a las actualizaciones de silicio y modelos, se lanza Cloud WAN. Google está poniendo a la venta su enorme red global interna, que abarca más de tres millones de kilómetros de fibra y conecta 42 regiones a través de más de 200 puntos de presencia, poniéndola directamente a disposición de sus clientes empresariales. 

Google afirma que este servicio puede ofrecer un rendimiento hasta un 40 % más rápido que la internet pública y reducir el coste total de propiedad hasta en un 40 % en comparación con las WAN autogestionadas, con el respaldo de un acuerdo de nivel de servicio (SLA) de fiabilidad del 99.99 %. Cloud WAN, cuyo principal objetivo es la conectividad de alto rendimiento entre centros de datos y la conexión de entornos de sucursales y campus, aprovecha la infraestructura existente de Google, incluido el Centro de Conectividad de Red. 

Si bien Google mencionó a Nestlé y Citadel Securities como pioneros, esta medida convierte en un activo fundamental de infraestructura. Transforma una necesidad operativa interna en un diferenciador competitivo y una fuente potencial de ingresos, desafiando directamente tanto a los proveedores de telecomunicaciones tradicionales como a las ofertas de redes de plataformas en la nube rivales como AWS Cloud WAN y Azure Virtual WAN.

(Fuente: Google DeepMind)

La ofensiva del agente: construyendo puentes con ADK y A2A

Más allá de la infraestructura y los modelos centrales, Google Cloud Next 2025 puso un énfasis extraordinario en Agentes de inteligencia artificial y las herramientas para construirlos y conectarlos. La visión presentada va mucho más allá de los simples chatbots, imaginando sistemas sofisticados capaces de razonar, planificar y ejecutar tareas complejas de varios pasos de forma autónoma. El enfoque se está desplazando claramente hacia la habilitación sistemas de múltiples agentes, donde agentes especializados colaboran para lograr objetivos más amplios.

Para facilitar esta visión, Google introdujo el Kit de desarrollo de agentes (ADK)ADK es un framework de código abierto, inicialmente disponible en Python, diseñado para simplificar la creación de agentes individuales y sistemas multiagente complejos. Google afirma que los desarrolladores pueden crear un agente funcional con menos de 100 líneas de código. 

Las características clave incluyen un enfoque de código primero para un control preciso, soporte nativo para arquitecturas de múltiples agentes, integración flexible de herramientas (incluido soporte para el Protocolo de contexto modelo, o MCP), capacidades de evaluación integradas y opciones de implementación que abarcan desde contenedores locales hasta el motor de agente de IA Vertex administrado. ADK también admite la transmisión bidireccional de audio y video para interacciones más naturales y humanas. Un "Jardín de Agentes" complementario ofrece ejemplos listos para usar y más de 100 conectores prediseñados para impulsar el desarrollo.

Sin embargo, la verdadera pieza central de la estrategia de agentes de Google es la Agente a agente (A2A) protocolo. A2A es una nueva, abierto Estándar diseñado específicamente para la interoperabilidad de agentes. Su objetivo fundamental es permitir que los agentes de IA, independientemente del framework con el que se crearon (ADK, LangGraph, CrewAI, etc.) o del proveedor que los creó, se comuniquen de forma segura, intercambien información y coordinen acciones. Esto aborda directamente el desafío significativo de los sistemas de IA aislados dentro de las empresas, donde los agentes creados para diferentes tareas o departamentos a menudo no pueden interactuar.

Este impulso hacia un protocolo A2A abierto representa una importante apuesta estratégica. En lugar de construir un ecosistema de agentes propietario y cerrado, Google intenta establecer el estándar de facto para la comunicación entre agentes. Este enfoque podría sacrificar la dependencia a corto plazo a cambio de la perspectiva de un liderazgo a largo plazo del ecosistema y, fundamentalmente, reducir la fricción que dificulta la adopción empresarial de sistemas multiagente complejos.

Al promover la apertura, Google pretende acelerar todo el mercado de agentes, posicionando su plataforma y herramientas en la nube como facilitadores centrales.

Cómo funciona A2A (Fuente: Google)

Recalibrando la carrera por la nube: la apuesta competitiva de Google

Estos anuncios se enmarcan claramente en la actual guerra de la nube. Google Cloud, si bien muestra un crecimiento impresionante, a menudo impulsado por la adopción de IA, aún mantiene la tercera posición en cuota de mercado, por detrás de AWS y Microsoft Azure. Cloud Next 2025 mostró la estrategia de Google para recalibrar esta competencia, apoyándose en sus fortalezas únicas y abordando las debilidades percibidas.

Los diferenciadores clave de Google quedaron a la vista. La inversión a largo plazo en silicio personalizado, que culminó en la TPU Ironwood, centrada en la inferencia, ofrece una narrativa de hardware distintiva en comparación con los chips Trainium/Inferentia de AWS y el acelerador Maia de Azure. Google enfatiza constantemente el liderazgo en rendimiento por vatio, un factor potencialmente crucial ante el aumento vertiginoso de la demanda energética de la IA. El lanzamiento de Cloud WAN potencia la inigualable infraestructura de red global de Google, ofreciendo una ventaja distintiva en redes.

Además, Google continúa aprovechando su herencia en inteligencia artificial y aprendizaje automático, derivada de La investigación de DeepMind y se manifiesta en la plataforma integral Vertex AI, alineada con su percepción del mercado como líder en IA y análisis de datos.

Simultáneamente, Google manifestó esfuerzos para abordar preocupaciones empresariales históricas. La masiva Adquisición de la empresa de seguridad en la nube Wiz por 32 mil millones de dólares, anunciado poco antes de Next, es una clara declaración de intenciones de reforzar su postura de seguridad y mejorar la usabilidad y la experiencia de sus ofertas de seguridad: áreas críticas para la confianza empresarial.

El énfasis continuo en las soluciones industriales, la preparación empresarial y las asociaciones estratégicas tiene como objetivo además reformular la percepción del mercado desde un proveedor de tecnología puro a un socio empresarial confiable. 

En conjunto, la estrategia de Google parece menos centrada en hacer coincidir los servicios de AWS y Azure en todos los ámbitos y más concentrada en aprovechar sus activos únicos (investigación en IA, hardware personalizado, red global y afinidad con el código abierto) para establecer el liderazgo en lo que percibe como la próxima ola crucial de la computación en la nube: IA a escala, particularmente inferencia eficiente y sistemas agentes sofisticados. 

El camino por delante para la IA de Google

Google Cloud Next 2025 presentó una narrativa convincente de ambición y coherencia estratégica. Google está redoblando sus esfuerzos en inteligencia artificial, concentrando sus recursos en silicio personalizado optimizado para la era de la inferencia (Ironwood), una cartera de modelos de IA equilibrada y práctica (Gemini 2.5 Pro y Flash), su infraestructura de red global única (Cloud WAN) y un enfoque audaz y abierto hacia el floreciente mundo de los agentes de IA (ADK y A2A).

En definitiva, el evento mostró a una empresa que trabaja con determinación para convertir sus profundas capacidades tecnológicas en una oferta empresarial integral y diferenciada para la era de la IA. La estrategia integrada (hardware, software, redes y estándares abiertos) es sólida. Sin embargo, el camino a seguir requiere más que solo innovación. 

El mayor desafío de Google podría residir menos en la tecnología y más en superar la inercia de la adopción empresarial y generar una confianza duradera. Convertir estos ambiciosos anuncios en ganancias sostenidas de cuota de mercado frente a competidores muy arraigados exige una ejecución impecable, estrategias claras de comercialización y la capacidad de convencer constantemente a las grandes organizaciones de que Google Cloud es la plataforma indispensable para su futuro impulsado por la IA. El futuro agente que Google visualiza es atractivo, pero su realización depende de la capacidad de navegar por estas complejas dinámicas del mercado mucho después de que la atención de Las Vegas se haya apagado.

Alex McFarland es un periodista y escritor sobre inteligencia artificial que explora los últimos avances en inteligencia artificial. Ha colaborado con numerosas empresas emergentes y publicaciones de IA en todo el mundo.