Anúncios
Google Cloud Next 2025: Apostando na IA com Silício, Software e um Ecossistema de Agente Aberto

Las Vegas está sediando Google Cloud Próximo 2025, um evento que se desenrola num momento crítico para a indústria tecnológica. A inteligência artificial corrida armamentista entre os titãs das nuvens – Amazon Web Services (AWS), Microsoft Azure e Google Cloud – está crescendo rapidamente. O Google, frequentemente apontado como o terceiro concorrente, apesar de sua formidável proeza tecnológica e profundas raízes em pesquisa de IA, aproveitou o momento do Cloud Next para articular uma estratégia abrangente e agressiva voltada diretamente para o mercado de IA empresarial.
A narrativa, apresentada pelo CEO do Google Cloud, Thomas Kurian, e repetida pelo CEO do Google e da Alphabet, Sundar Pichai, centrou-se em transformar a transformação da IA de uma mera possibilidade em realidade tangível. O Google ressaltou seu impulso, citando mais de 3,000 avanços em produtos no ano passado, um aumento de vinte vezes em Plataforma Vertex AI uso desde o evento anterior do Cloud Next, mais de quatro milhões de desenvolvedores construindo ativamente com seu Família de modelos Gêmeos, e apresentando mais de 500 histórias de sucesso de clientes durante a conferência.
No entanto, o Google Cloud Next 2025 foi mais do que uma demonstração de atualizações incrementais ou métricas impressionantes. Também revelou uma ofensiva multifacetada. Ao lançar um silício personalizado poderoso e otimizado para inferência (o TPU de madeira de ferro), refinando seu portfólio de modelos de IA emblemáticos com foco na praticidade (Gemini 2.5 Flash), abrindo sua vasta infraestrutura de rede global para empresas (Nuvem WAN), e fazendo uma aposta estratégica significativa em um ecossistema aberto e interoperável para agentes de IA (o protocolo Agent2Agent), o Google está se posicionando agressivamente para definir a próxima fase evolutiva da IA empresarial – o que a empresa está cada vez mais chamando de “era agêntica. "
Ironwood, Gemini e o Efeito de Rede
No centro das ambições de IA do Google está seu investimento contínuo em silício personalizado. A estrela do Cloud Next 2025 foi o Ironwood, a sétima geração da Unidade de Processamento Tensor (TPU) do Google. De forma crítica, o Ironwood é apresentado como o primeiro TPU projetado explicitamente para AI inferência – o processo de usar modelos treinados para fazer previsões ou gerar saídas em aplicações do mundo real.
As promessas de desempenho do Ironwood são substanciais. O Google detalhou configurações que podem chegar a 9,216 chips imensos refrigerados a líquido, interconectados em um único pod. Afirma-se que esta maior configuração oferece impressionantes 42.5 exaflops de poder de computação. O Google afirma que isso representa mais de 24 vezes o poder de computação por pod de El Capitan, atualmente classificado como o supercomputador mais poderoso do mundo.
Embora impressionante, é importante observar que tais comparações frequentemente envolvem diferentes níveis de precisão numérica, tornando a equivalência direta complexa. Ainda assim, o Google posiciona o Ironwood como uma melhoria mais de dez vezes maior em relação à sua geração anterior de TPU de alto desempenho.
Além da computação bruta, o Ironwood apresenta avanços significativos em memória e interconectividade em comparação ao seu antecessor, o Trillium (TPU v6).
Talvez igualmente importante seja a ênfase na eficiência energética. O Google afirma que o Ironwood oferece o dobro do desempenho por watt em comparação com o Trillium e é quase 30 vezes mais eficiente em termos de energia do que seu primeiro Cloud TPU de 2018. Isso aborda diretamente a crescente restrição de disponibilidade de energia no dimensionamento de data centers para IA.
Comparação de gerações de TPU do Google: Ironwood (v7) vs. Trillium (v6)
Característica | Trillium (TPU v6) | Madeira de ferro (TPU v7) | Fator de Melhoria |
Foco primário | Treinamento e Inferência | Inferência | Especialização |
Pico de computação/chip | Não diretamente comparável (diff gen) | 4,614 TFLOPs (FP8 provável) | - |
Capacidade/Chip HBM | 32 GB (estimado com base em reivindicação 6x) | 192 GB | 6x |
Largura de banda/chip HBM | ~1.6 Tbps (estimado com base em 4.5x) | 7.2 Tbps | 4.5x |
Largura de banda ICI (bidir.) | ~0.8 Tbps (estimado com base em 1.5x) | 1.2 Tbps | 1.5x |
Perf/Watt vs. Geração Anterior | Linha de base para comparação | 2x contra Trillium | 2x |
Desempenho/Watt vs. TPU v1 (2018) | ~15x (estimado) | Quase 30x | ~2x contra Trillium |
Observação: alguns números do Trillium são estimados com base nos fatores de melhoria declarados pelo Google para o Ironwood. A comparação de picos de computação é complexa devido a diferenças geracionais e prováveis variações de precisão.
Ironwood constitui uma parte fundamental do conceito de “AI Hypercomputer” do Google – uma arquitetura que integra hardware otimizado (incluindo TPUs e GPUs como Blackwell da Nvidia e próximo Vera Rubin), software (como o tempo de execução de ML distribuído do Pathways), armazenamento (Hyperdisk Exapools, Managed Lustre) e rede para lidar com cargas de trabalho de IA exigentes.
Na frente do modelo, o Google apresentou o Gemini 2.5 Flash, um contraponto estratégico ao topo de linha Gêmeos 2.5 Pró. Enquanto o Pro visa a qualidade máxima para raciocínio complexo, o Flash é explicitamente otimizado para baixa latência e eficiência de custos, tornando-o adequado para aplicações de alto volume e em tempo real, como interações de atendimento ao cliente ou resumo rápido.
O Gemini 2.5 Flash apresenta um "orçamento de pensamento" dinâmico que ajusta o processamento com base na complexidade da consulta, permitindo que os usuários ajustem o equilíbrio entre velocidade, custo e precisão. Esse foco simultâneo em um chip de inferência de alto desempenho (Ironwood) e um modelo otimizado em termos de custo/latência (Gemini Flash) reforça a iniciativa do Google em direção à praticidade. operacionalização da IA, reconhecendo que o custo e a eficiência da execução de modelos em produção estão se tornando preocupações primordiais para as empresas.
Complementando as atualizações de silício e modelos, está o lançamento da Cloud WAN. O Google está efetivamente produzindo sua enorme rede interna global – abrangendo mais de 42 milhões de quilômetros de fibra óptica, conectando 200 regiões por meio de mais de XNUMX pontos de presença – tornando-a disponível diretamente para clientes corporativos.
O Google afirma que este serviço pode oferecer desempenho até 40% mais rápido em comparação com a internet pública e reduzir o custo total de propriedade em até 40% em comparação com WANs autogerenciadas, com o respaldo de um SLA de confiabilidade de 99.99%. Visando principalmente a conectividade de alto desempenho entre data centers e a conexão de ambientes de filiais/campus, a Cloud WAN aproveita a infraestrutura existente do Google, incluindo o Centro de Conectividade de Rede.
Embora o Google tenha citado a Nestlé e a Citadel Securities como pioneiras na adoção, essa medida fundamentalmente transforma um ativo de infraestrutura essencial em uma arma. Transforma uma necessidade operacional interna em um diferencial competitivo e potencial fonte de receita, desafiando diretamente tanto os provedores de telecomunicações tradicionais quanto as ofertas de rede de plataformas de nuvem rivais, como AWS Cloud WAN e Azure Virtual WAN.

(Fonte: Google DeepMind)
A Ofensiva do Agente: Construindo Pontes com ADK e A2A
Além da infraestrutura e dos modelos principais, o Google Cloud Next 2025 colocou uma ênfase extraordinária em Agentes AI e as ferramentas para construí-los e conectá-los. A visão apresentada vai muito além de simples chatbots, vislumbrando sistemas sofisticados capazes de raciocínio autônomo, planejamento e execução de tarefas complexas e multietapas. O foco está claramente mudando para permitir sistemas multiagentes, onde agentes especializados colaboram para atingir objetivos mais amplos.
Para facilitar esta visão, o Google introduziu o Kit de Desenvolvimento de Agente (ADK)O ADK é um framework de código aberto, inicialmente disponível em Python, projetado para simplificar a criação de agentes individuais e sistemas multiagentes complexos. O Google afirma que os desenvolvedores podem construir um agente funcional com menos de 100 linhas de código.
Os principais recursos incluem uma abordagem de código em primeiro lugar para controle preciso, suporte nativo para arquiteturas multiagentes, integração flexível de ferramentas (incluindo suporte para Protocolo de Contexto do Modelo, ou MCP), recursos de avaliação integrados e opções de implantação que vão desde contêineres locais até o Vertex AI Agent Engine gerenciado. O ADK também oferece suporte exclusivo para streaming bidirecional de áudio e vídeo para interações mais naturais e humanas. Um "Agent Garden" que acompanha o produto oferece amostras prontas para uso e mais de 100 conectores pré-criados para impulsionar o desenvolvimento.
A verdadeira peça central da estratégia do agente do Google, no entanto, é a Agente2Agente (A2A) protocolo. A2A é um novo, aberto Padrão projetado explicitamente para interoperabilidade de agentes. Seu objetivo fundamental é permitir que agentes de IA, independentemente da estrutura com a qual foram desenvolvidos (ADK, LangGraph, CrewAI, etc.) ou do fornecedor que os criou, se comuniquem com segurança, troquem informações e coordenem ações. Isso aborda diretamente o desafio significativo dos sistemas de IA isolados dentro das empresas, onde agentes criados para diferentes tarefas ou departamentos muitas vezes não conseguem interagir.
Essa busca por um protocolo A2A aberto representa uma aposta estratégica significativa. Em vez de construir um ecossistema proprietário e fechado de agentes, o Google está tentando estabelecer o padrão de fato para a comunicação entre agentes. Essa abordagem potencialmente sacrifica o aprisionamento a curto prazo em prol da perspectiva de liderança a longo prazo no ecossistema e, crucialmente, reduz o atrito que impede a adoção corporativa de sistemas multiagentes complexos.
Ao defender a abertura, o Google pretende acelerar todo o mercado de agentes, posicionando sua plataforma e ferramentas de nuvem como facilitadores centrais.

Como funciona o A2A (Fonte: Google)
Recalibrando a corrida da nuvem: a aposta competitiva do Google
Esses anúncios se encaixam perfeitamente no contexto da atual guerra da nuvem. O Google Cloud, embora demonstre um crescimento impressionante, muitas vezes impulsionado pela adoção de IA, ainda ocupa a terceira posição em participação de mercado, atrás da AWS e do Microsoft Azure. O Cloud Next 2025 apresentou a estratégia do Google para recalibrar essa corrida, investindo fortemente em seus pontos fortes e abordando as fraquezas percebidas.
Os principais diferenciais do Google foram totalmente demonstrados. O investimento de longo prazo em silício personalizado, culminando no Ironwood TPU focado em inferência, oferece uma narrativa de hardware distinta em comparação com os chips Trainium/Inferentia da AWS e o acelerador Maia da Azure. O Google enfatiza consistentemente a liderança em desempenho por watt, um fator potencialmente crucial à medida que a demanda por energia da IA dispara. O lançamento da Cloud WAN potencializa a infraestrutura de rede global incomparável do Google, oferecendo uma vantagem de rede distinta.
Além disso, o Google continua a alavancar sua herança de IA e aprendizado de máquina, decorrente de Pesquisa da DeepMind e manifestada na plataforma abrangente Vertex AI, alinhando-se com sua percepção de mercado como líder em IA e análise de dados.
Simultaneamente, o Google sinalizou esforços para resolver preocupações empresariais históricas. A enorme Aquisição de US$ 32 bilhões da empresa de segurança em nuvem Wiz, anunciado pouco antes do Next, é uma declaração clara de intenção de reforçar sua postura de segurança e melhorar a usabilidade e a experiência de suas ofertas de segurança – áreas críticas para a confiança empresarial.
A ênfase contínua em soluções industriais, preparação empresarial e parcerias estratégicas visa ainda reformular a percepção do mercado de um mero fornecedor de tecnologia para um parceiro empresarial confiável.
Em conjunto, a estratégia do Google parece menos focada em igualar o serviço por serviço da AWS e do Azure em todos os níveis, e mais concentrada em alavancar seus ativos exclusivos — pesquisa de IA, hardware personalizado, rede global e afinidade de código aberto — para estabelecer liderança no que ela percebe como a próxima onda crucial da computação em nuvem: IA em escala, particularmente inferência eficiente e sistemas de agentes sofisticados.
O caminho a seguir para a IA do Google
O Google Cloud Next 2025 apresentou uma narrativa convincente de ambição e coerência estratégica. O Google está redobrando seus esforços em inteligência artificial, concentrando seus recursos em silício personalizado otimizado para a era da inferência (Ironwood), um portfólio equilibrado e prático de modelos de IA (Gemini 2.5 Pro e Flash), sua infraestrutura de rede global exclusiva (Cloud WAN) e uma abordagem ousada e aberta ao crescente mundo dos agentes de IA (ADK e A2A).
Em última análise, o evento demonstrou uma empresa que se move agressivamente para traduzir suas profundas capacidades tecnológicas em uma oferta empresarial abrangente e diferenciada para a era da IA. A estratégia integrada – hardware, software, rede e padrões abertos – é sólida. No entanto, o caminho a seguir exige mais do que apenas inovação.
O maior desafio do Google pode residir menos na tecnologia e mais em superar a inércia da adoção corporativa e construir confiança duradoura. Converter esses anúncios ambiciosos em ganhos sustentados de participação de mercado contra concorrentes profundamente enraizados exige execução impecável, estratégias claras de entrada no mercado e a capacidade de convencer consistentemente grandes organizações de que o Google Cloud é a plataforma indispensável para seu futuro impulsionado pela IA. O futuro dinâmico que o Google vislumbra é atraente, mas sua concretização depende de navegar por essa complexa dinâmica de mercado muito depois que os holofotes de Las Vegas se apagarem.