Сповіщення
Google Cloud Next 2025: Подвоєння ШІ за допомогою кремнію, програмного забезпечення та екосистеми відкритих агентів

Лас-Вегас приймає Google Cloud Наступний 2025, подія, яка розгортається в критичний момент для індустрії технологій. Штучний інтелект гонка озброєнь серед хмарних титанів – Amazon Web Services (AWS), Microsoft Azure та Google Cloud – стрімко розвивається. Google, якого часто називають третім претендентом, незважаючи на його величезну технологічну майстерність і глибокі дослідження штучного інтелекту, скористався етапом Cloud Next, щоб сформулювати комплексну й агресивну стратегію, спрямовану безпосередньо на ринок корпоративного штучного інтелекту.
Розповідь, озвучена генеральним директором Google Cloud Томасом Куріаном і підтримана генеральним директором Google і Alphabet Сундаром Пічаї, зосереджена на перенесенні ШІ-трансформації від простої можливості до відчутної реальності. Google підкреслив свій заявлений імпульс, посилаючись на понад 3,000 вдосконалених продуктів за минулий рік, двадцятикратне зростання Платформа Vertex AI використання з часу попередньої події Cloud Next, понад чотири мільйони розробників активно розробляють її Сімейство моделей Gemini, а також демонстрація понад 500 історій успіху клієнтів під час конференції.
Однак Google Cloud Next 2025 був не лише демонстрацією поступових оновлень або вражаючих показників. Він також оприлюднив багатосторонній наступ. Запустивши потужний, оптимізований для висновків спеціальний кремній (the Айронвуд ТПУ), удосконалюючи свій флагманський портфель моделей штучного інтелекту з акцентом на практичності (Gemini 2.5 Flash), відкриваючи свою величезну глобальну мережеву інфраструктуру для підприємств (Хмарна глобальна мережа) і роблячи значну стратегічну ставку на відкриту сумісну екосистему для агентів штучного інтелекту (протокол Agent2Agent), Google агресивно позиціонує себе, щоб визначити наступний етап еволюції корпоративного штучного інтелекту – те, що компанія все частіше називає «агентурна ера».
Айронвуд, Близнюки та мережевий ефект
Головне в амбіціях Google щодо штучного інтелекту – це постійні інвестиції в спеціальний кремній. Зіркою Cloud Next 2025 став Ironwood, сьоме покоління процесора Tensor Processing Unit (TPU) від Google. Важливо те, що Ironwood представлено як перший TPU, спеціально розроблений для AI умовивод – процес використання навчених моделей для прогнозування або створення результатів у реальних додатках.
Претензії щодо продуктивності Ironwood значні. Google детально описав конфігурації, що включають величезну кількість 9,216 чіпів з рідинним охолодженням, з’єднаних між собою в одному модулі. Заявлено, що ця найбільша конфігурація забезпечує приголомшливі 42.5 екзафлопс обчислювальної потужності. Google стверджує, що це більш ніж у 24 рази перевищує обчислювальну потужність на один модуль El Capitan, який наразі вважається найпотужнішим суперкомп’ютером у світі.
Хоча це вражає, важливо зазначити, що такі порівняння часто включають різні рівні чисельної точності, що робить пряму еквівалентність складною. Тим не менш, Google позиціонує Ironwood як більш ніж десятикратне покращення в порівнянні з попереднім високопродуктивним TPU поколінням.
Окрім необроблених обчислень, Ironwood може похвалитися значними досягненнями в пам’яті та взаємозв’язку порівняно зі своїм попередником Trillium (TPU v6).
Можливо, не менш важливим є акцент на енергоефективності. Google стверджує, що Ironwood забезпечує вдвічі більшу продуктивність на ват, ніж Trillium, і майже в 30 разів енергоефективніший, ніж його перший Cloud TPU з 2018 року. Це безпосередньо вирішує зростаючі обмеження доступності електроенергії при масштабуванні центрів обробки даних для ШІ.
Порівняння поколінь Google TPU: Ironwood (v7) проти Trillium (v6)
особливість | Trillium (TPU v6) | Ironwood (TPU v7) | Фактор покращення |
Основний фокус | Навчання та висновки | Висновок | Спеціалізація |
Пікове обчислення/чіп | Безпосереднє порівняння (диф ген) | 4,614 TFLOPs (ймовірно, FP8) | - |
Ємність HBM/чіп | 32 ГБ (приблизно на основі 6-кратної претензії) | 192 GB | 6x |
Пропускна здатність HBM/чіп | ~1.6 Тбіт/с (приблизно на основі 4.5x) | 7.2 Тбіт/с | 4.5x |
Пропускна здатність ICI (bidir.) | ~0.8 Тбіт/с (приблизно на основі 1.5x) | 1.2 Тбіт/с | 1.5x |
Perf/Watt порівняно з попереднім поколінням | Базова лінія для порівняння | 2x проти Trillium | 2x |
Perf/Watt проти TPU v1 (2018) | ~15x (приблизно) | Майже в 30 разів | ~2x проти Trillium |
Примітка. Деякі цифри Trillium розраховані на основі заявлених Google факторів покращення для Ironwood. Порівняння пікових обчислень є складним через відмінності між поколіннями та ймовірні варіації точності.
Ironwood є ключовою частиною концепції Google «гіперкомп’ютер зі штучним інтелектом» – архітектури, що об’єднує оптимізоване апаратне забезпечення (включаючи TPU та GPU, як Blackwell від Nvidia і майбутні Віра Рубін), програмне забезпечення (як-от розподілене середовище виконання ML Pathways), сховище (Hyperdisk Exapools, Managed Lustre) і мережа для вирішення вимогливих робочих навантажень ШІ.
Що стосується моделі, Google представив Gemini 2.5 Flash, стратегічний контрапункт високого класу Gemini 2.5 Pro. У той час як Pro націлений на максимальну якість для складних міркувань, Flash явно оптимізовано для низької затримки та економічності, що робить його придатним для великих обсягів програм у реальному часі, таких як взаємодія з клієнтами або швидке підсумовування.
Gemini 2.5 Flash має динамічний «продуманий бюджет», який регулює обробку на основі складності запиту, дозволяючи користувачам налаштувати баланс між швидкістю, вартістю та точністю. Ця одночасна зосередженість на високопродуктивному чіпі висновку (Ironwood) і моделі, оптимізованій за ціною/затримкою (Gemini Flash), підкреслює прагнення Google до практичного операціоналізація ШІ, визнаючи, що вартість і ефективність використання моделей у виробництві стають першочерговими проблемами для підприємств.
Доповнюючи оновлення кремнію та моделі, є запуск Cloud WAN. Google ефективно розвиває свою величезну внутрішню глобальну мережу, яка охоплює понад два мільйони миль оптоволокна, з’єднує 42 регіони через понад 200 точок присутності, роблячи її безпосередньо доступною для корпоративних клієнтів.
Google стверджує, що ця служба може забезпечити до 40% більшу продуктивність порівняно з загальнодоступним Інтернетом і знизити загальну вартість володіння до 40% у порівнянні з самокерованими глобальними мережами, що підтримується угодою про рівень обслуговування на 99.99%. У першу чергу орієнтуючись на високоефективне з’єднання між центрами обробки даних і з’єднуючими середовищами філій/кампусів, Cloud WAN використовує існуючу інфраструктуру Google, включаючи Центр підключення до мережі.
Незважаючи на те, що Google назвав Nestlé і Citadel Securities першими прихильниками, цей крок фундаментально стає зброєю основного інфраструктурного активу. Він перетворює внутрішню операційну необхідність на конкурентоспроможність і потенційний потік доходу, кидаючи безпосередній виклик як традиційним постачальникам телекомунікацій, так і мережевим пропозиціям конкуруючих хмарних платформ, таких як AWS Cloud WAN і Azure Virtual WAN.

(Джерело: Google DeepMind)
The Agent Offensive: Будуємо мости з ADK і A2A
Окрім інфраструктури та основних моделей, Google Cloud Next 2025 приділяв надзвичайну увагу Агенти ІІ а також інструменти для їх створення та з’єднання. Представлене бачення виходить далеко за рамки простих чат-ботів, передбачаючи складні системи, здатні автономно міркувати, планувати та виконувати складні багатоетапні завдання. Фокус чітко зміщується в бік надання можливості мультиагентні системи, де спеціалізовані агенти співпрацюють для досягнення ширших цілей.
Щоб полегшити це бачення, Google представив Комплект розробки агента (ADK). ADK — це фреймворк із відкритим вихідним кодом, спочатку доступний на Python, призначений для спрощення створення окремих агентів і складних багатоагентних систем. Google стверджує, що розробники можуть створити функціональний агент із менш ніж 100 рядками коду.
Основні функції включають підхід до коду для точного керування, вбудовану підтримку багатоагентних архітектур, гнучку інтеграцію інструментів (включаючи підтримку для Модель контекстного протоколуабо MCP), вбудовані можливості оцінювання та варіанти розгортання, починаючи від локальних контейнерів і закінчуючи керованим Vertex AI Agent Engine. ADK також унікально підтримує двонаправлене потокове аудіо та відео для більш природної взаємодії, схожої на людину. Супровідний «Agent Garden» містить готові до використання зразки та понад 100 готових роз’ємів для швидкого старту розробки.
Однак справжньою центральною частиною агентської стратегії Google є Agent2Agent (A2A) протокол A2A є новим, відкрити стандарт, розроблений спеціально для взаємодії агентів. Його фундаментальна мета — дозволити агентам штучного інтелекту, незалежно від фреймворку, за допомогою якого вони створені (ADK, LangGraph, CrewAI тощо) або постачальника, який їх створив, безпечно спілкуватися, обмінюватися інформацією та координувати дії. Це безпосередньо вирішує значну проблему ізольованих систем ШІ на підприємствах, де агенти, створені для різних завдань або відділів, часто не можуть взаємодіяти.
Цей поштовх до відкритого протоколу A2A представляє значну стратегічну авантюру. Замість створення власної закритої екосистеми агентів Google намагається встановити фактичний стандарт для спілкування агентів. Цей підхід потенційно приносить в жертву короткострокову прив’язаність заради перспективи довгострокового лідерства в екосистемі та, що важливо, зменшення тертя, яке заважає підприємству прийняти складні багатоагентні системи.
Захищаючи відкритість, Google прагне прискорити весь ринок агентів, позиціонуючи свою хмарну платформу та інструменти як центральні фасилітатори.

Як працює A2A (Джерело: Google)
Повторне калібрування хмарної гонки: конкурентний гамбіт Google
Ці оголошення безпосередньо стосуються контексту триваючих хмарних війн. Хоча Google Cloud демонструє вражаючі темпи зростання, які часто сприяють застосуванню штучного інтелекту, все ще займає третю позицію за часткою ринку, поступаючись AWS і Microsoft Azure. Cloud Next 2025 продемонструвала стратегію Google, щоб змінити цю гонку, спираючись на його унікальні сильні сторони та усуваючи передбачувані слабкі сторони.
Ключові відмінності Google були на повному екрані. Довгострокові інвестиції в нестандартний кремній, кульмінацією якого є Ironwood TPU, орієнтований на інференцію, забезпечують чітку апаратну розповідь порівняно з чіпами Trainium/Inferentia від AWS і прискорювачем Maia від Azure. Google постійно наголошує на лідерстві за продуктивністю на ват, що є потенційно вирішальним фактором, оскільки потреба в енергії ШІ стрімко зростає. Запуск Cloud WAN використовує неперевершену глобальну мережеву інфраструктуру Google, пропонуючи явну мережеву перевагу.
Крім того, Google продовжує використовувати свій спадок штучного інтелекту та машинного навчання, що походить від Дослідження DeepMind і проявляється в комплексній платформі Vertex AI, що відповідає її сприйняттю на ринку як лідера в області штучного інтелекту та аналізу даних.
Водночас Google сповістив про зусилля щодо вирішення історичних проблем підприємства. Масивний Придбання компанії з хмарної безпеки Wiz за 32 мільярди доларів, про який було оголошено незадовго до Next, — це чітка заява про намір посилити рівень безпеки та покращити зручність використання та досвід пропозицій щодо безпеки — сфери, критичні для довіри підприємства.
Постійний наголос на галузевих рішеннях, готовності підприємства та стратегічному партнерстві також має на меті змінити сприйняття ринку від чистого постачальника технологій до надійного корпоративного партнера.
У сукупності стратегія Google менш зосереджена на поєднанні послуг AWS і Azure за всіма напрямками, а більше зосереджена на використанні своїх унікальних активів – досліджень штучного інтелекту, спеціального апаратного забезпечення, глобальної мережі та відкритого вихідного коду – для встановлення лідерства в тому, що вона сприймає як наступну вирішальну хвилю хмарних обчислень: штучний інтелект у масштабі, особливо ефективні висновки та складні агентські системи.
Попередній шлях для Google AI
Google Cloud Next 2025 представив переконливу розповідь про амбіції та стратегічну послідовність. Google вдвічі збільшує обсяг штучного інтелекту, розподіляючи свої ресурси між спеціальним кремнієм, оптимізованим для епохи висновків (Ironwood), збалансованим і практичним портфоліо моделей штучного інтелекту (Gemini 2.5 Pro і Flash), своєю унікальною глобальною мережевою інфраструктурою (Cloud WAN) і сміливим відкритим підходом до світу агентів штучного інтелекту, що розвивається (ADK і A2A).
Зрештою, подія продемонструвала компанію, яка агресивно рухається, щоб перетворити свої глибокі технологічні можливості в комплексну, диференційовану корпоративну пропозицію для епохи ШІ. Інтегрована стратегія – апаратне забезпечення, програмне забезпечення, мережі та відкриті стандарти – є правильною. Проте майбутній шлях потребує не лише інновацій.
Найважливіший виклик Google може полягати не в технологіях, а більше в подоланні інерції корпоративного впровадження та створенні міцної довіри. Щоб перетворити ці амбітні оголошення на стійке збільшення частки ринку в порівнянні з глибоко вкоріненими конкурентами, потрібні бездоганне виконання, чіткі стратегії виходу на ринок і здатність постійно переконувати великі організації в тому, що Google Cloud є незамінною платформою для їх майбутнього, керованого ШІ. Агентське майбутнє, яке бачить Google, є переконливим, але його реалізація залежить від навігації цією складною динамікою ринку ще довго після того, як світло Лас-Вегаса потьмяніє.