Connect with us

Google і Intel розширюють партнерство з виробництва чіпів для інфраструктури штучного інтелекту

Штучний інтелект

Google і Intel розширюють партнерство з виробництва чіпів для інфраструктури штучного інтелекту

mm

Google і Intel оголосили про багаторічний розширення свого партнерства з інфраструктури хмарних обчислень, зобов’язавшись продовжувати розгортання процесорів Intel Xeon у Google Cloud та розширювати спільну розробку спеціалізованих процесорів обробки інформації (IPU), призначених для завдань штучного інтелекту.

Угода, оголошена 9 квітня, охоплює дві області: Google Cloud продовжить використовувати кілька поколінь процесорів Intel Xeon, включаючи останні чіпи Xeon 6, які живлять його віртуальні машини C4 і N4, для висновків штучного інтелекту, координації навчання та загального призначення обчислень. Окремо дві компанії розширять свою спільну розробку спеціалізованих процесорів на основі Application-Specific Integrated Circuit (ASIC), програмованих прискорювачів, які вивантажують функції мережі, зберігання та безпеки з хост-CPU в центрах даних.

Intel і Google працюють разом над IPU з 2022 року, коли був запущений перший спеціалізований IPU — кодове ім’я Mount Evans — разом з віртуальними машинами Google Cloud C3. Ці IPU працюють на швидкості 200 Гбіт/с і виконують завдання, такі як віртуальна мережа та операції зі зберігання, які інакше споживали б ресурси CPU, призначені для завдань клієнтів. Наступне покоління спільно розроблених IPU не було деталізовано, хоча спостерігачі галузі очікують вищої швидкості з урахуванням вимог мережі сучасних кластерів обчислень штучного інтелекту.

Чому CPU все ще важливі для штучного інтелекту

Партнерство підкреслює зміну того, як галузь думає про інфраструктуру штучного інтелекту. Хоча GPU і спеціалізовані прискорювачі, такі як TPUs Google, обробляють важкі обчислення навчання та виконання моделей штучного інтелекту, CPU залишаються важливими для оркестрування розподілених завдань, управління потоками даних та виконання інфраструктури, яка підтримує великомасштабні системи штучного інтелекту.

Генеральний директор Intel Lip-Bu Tan сформулював угоду навколо цієї реальності у прес-релізі компанії: компанія стверджує, що масштабування штучного інтелекту вимагає збалансованих систем, у яких CPU і IPU працюють поряд з прискорювачами, а не системи, побудовані лише на прискорювачах.

Amin Vahdat, старший віце-президент і головний технолог Google для інфраструктури штучного інтелекту, зазначив, що Intel є партнером майже два десятиліття і що дорожня карта Xeon дає Google впевненість у задоволенні вимог продуктивності та ефективності в майбутньому.

Угода відбувається в час значних обмежень постачання CPU. Intel зараз бореться з нестачею на своїх виробничих вузлах Intel 10 і Intel 7, де знаходиться більша частина виробництва Xeon. Терміни поставки серверних CPU розтягнулися до шести місяців у деяких випадках, і Intel підтвердив підвищення цін через те, що попит перевищує пропозицію. Компанія пріоритезує чіпи для центрів даних над процесорами для споживачів, щоб вирішити проблему.

Ширший ландшафт чіпів штучного інтелекту

Бізнес Intel з виробництва спеціалізованих чіпів, до якого входить спільна робота з Google над IPU, став значним джерелом доходу. Фінансовий директор Intel David Zinsner сказав під час звіту компанії за четвертий квартал 2025 року, що підрозділ спеціалізованих чіпів вирос більш ніж на 50% у 2025 році і вийшов на річну норму доходу понад 1 мільярд доларів.

Угода також має значення з конкурентного боку. Google працює на власному процесорі на основі Arm, Axion, для внутрішніх та клієнтських завдань. Amazon будує спеціалізовані мережеві інтерфейси Nitro через свій підрозділ Annapurna Labs, а Microsoft використовує рішення на основі програмованих логічних інтегральних схем (FPGA) для подібного вивантаження інфраструктури. Продовжуючи спільну розробку IPU з Intel замість побудови повністю самостійно, Google підтримує інший підхід, ніж у своїх колег-хмарочосів — той, який залишається Intel у партнерстві як постачальника CPU, так і партнера з виробництва спеціалізованого кремнію.

Для Intel партнерство забезпечує високопрофільне підтвердження його стратегії центрів даних під керівництвом Tan. Компанія зіткнулася з питаннями щодо своєї актуальності, оскільки постачальники хмарних послуг все частіше проектують自己的 чіпи. Підтримання глибоких відносин з виробництва спеціалізованого кремнію з одним з найбільших операторів хмарних послуг сигналізує про те, що можливості Intel з виробництва та проектування залишаються конкурентоспроможними для завдань, критичних для інфраструктури.

Фінансові умови угоди не були розкриті. Гонка озброєння штучного інтелекту серед постачальників хмарних послуг не показує ознак сповільнення, і забезпечення надійних ланцюжків постачання CPU та спеціалізованих чіпів стає так само стратегічно важливим, як і постачання GPU. Чи зможе Intel масштабувати своє виробництво достатньо швидко, щоб скористатися цим попитом — при цьому керуючи своїми тривалими обмеженнями постачання — залишається відкритим питанням.

Алекс Макфарленд - журналіст та письменник з питань штучного інтелекту, який досліджує останні розробки в галузі штучного інтелекту. Він співпрацював з численними стартапами та виданнями з штучного інтелекту у світі.