Connect with us

Kecerdasan buatan

Google dan Intel Perluas Kemitraan Chip untuk Infrastruktur AI

mm

Google dan Intel telah mengumumkan perluasan kemitraan infrastruktur cloud selama beberapa tahun, yang berkomitmen untuk terus menerapkan prosesor Intel Xeon di seluruh Google Cloud dan mengembangkan unit pemrosesan infrastruktur (IPU) kustom untuk beban kerja AI.

Perjanjian tersebut, yang diumumkan pada 9 April, mencakup dua area: Google Cloud akan terus menggunakan beberapa generasi prosesor Intel Xeon, termasuk Xeon 6 terbaru yang memuat instance mesin virtual C4 dan N4, untuk inferensi AI, koordinasi pelatihan, dan komputasi umum. Secara terpisah, kedua perusahaan akan memperluas pengembangan bersama IPU kustom berbasis ASIC, akselerator yang dapat diprogram untuk memindahkan fungsi jaringan, penyimpanan, dan keamanan dari CPU host di pusat data.

Intel dan Google telah bekerja sama pada IPU sejak 2022, ketika IPU kustom pertama — yang diberi kode nama Mount Evans — diluncurkan bersamaan dengan instance C3 Google Cloud. IPU tersebut beroperasi pada 200 Gbps dan menangani tugas seperti jaringan virtual dan operasi penyimpanan yang akan mengonsumsi sumber daya CPU yang dimaksudkan untuk beban kerja pelanggan. Generasi berikutnya dari IPU yang dikembangkan bersama belum diungkapkan, meskipun pengamat industri mengharapkan kecepatan yang lebih tinggi mengingat permintaan jaringan dari klaster komputasi AI modern.

Mengapa CPU Masih Penting untuk AI

Kemitraan ini menyoroti pergeseran dalam cara industri memikirkan infrastruktur AI. Sementara GPU dan akselerator kustom seperti TPU Google menangani komputasi berat pelatihan dan menjalankan model AI, CPU tetap penting untuk mengatur beban kerja terdistribusi, mengelola pipa data, dan menjalankan infrastruktur pendukung yang menjaga sistem AI skala besar tetap operasional.

CEO Intel Lip-Bu Tan mengarahkan kesepakatan ini di sekitar kenyataan ini dalam siaran pers perusahaan: perusahaan tersebut berpendapat bahwa menskalakan AI memerlukan sistem yang seimbang di mana CPU dan IPU bekerja bersama dengan akselerator, bukan sistem yang dibangun pada akselerator saja.

Amin Vahdat, SVP dan Kepala Teknologi AI Infrastructure Google, menunjukkan bahwa Intel telah menjadi mitra selama hampir dua dekade dan bahwa roadmap Xeon memberikan Google kepercayaan dalam memenuhi permintaan kinerja dan efisiensi di masa depan.

Kesepakatan ini datang pada saat ketika terdapat kendala pasokan CPU yang signifikan. Intel saat ini berjuang dengan kekurangan di seluruh node manufaktur Intel 10 dan Intel 7, di mana sebagian besar produksi Xeon berada. Waktu pengiriman untuk CPU server telah memanjang hingga enam bulan dalam beberapa kasus, dan Intel telah mengkonfirmasi kenaikan harga karena permintaan melampaui pasokan. Perusahaan ini memprioritaskan chip pusat data daripada prosesor konsumen untuk mengatasi krisis.

Lanskap Chip AI yang Lebih Luas

Bisnis ASIC kustom Intel, yang mencakup pekerjaan pengembangan IPU dengan Google, telah menjadi sumber pendapatan yang signifikan. CFO Intel David Zinsner mengatakan selama panggilan pendapatan Q4 2025 perusahaan bahwa divisi chip kustom tumbuh lebih dari 50% pada 2025 dan keluar dari kuartal keempat dengan tingkat pendapatan tahunan di atas $1 miliar.

Kesepakatan ini juga penting secara kompetitif. Google mengoperasikan CPU Arm-basednya sendiri, Axion, untuk beban kerja internal dan pelanggan. Amazon membangun Nitro NIC kustom melalui divisi Annapurna Labs, dan Microsoft menggunakan solusi berbasis FPGA untuk offloading infrastruktur yang serupa. Dengan terus mengembangkan IPU dengan Intel daripada membangun sepenuhnya di dalam, Google mempertahankan pendekatan yang berbeda dari rekan-rekannya yang hyperscaler — satu yang menjaga Intel tetap terkait sebagai pemasok CPU dan mitra silikon kustom.

Bagi Intel, kemitraan ini memberikan validasi profil tinggi dari strategi pusat data di bawah kepemimpinan Tan. Perusahaan ini telah menghadapi pertanyaan tentang relevansinya karena penyedia cloud semakin merancang chip mereka sendiri. Mempertahankan hubungan silikon kustom yang dalam dengan salah satu operator cloud terbesar di dunia menunjukkan bahwa kapasitas foundry dan desain Intel tetap kompetitif untuk beban kerja kritis infrastruktur.

Tidak ada ketentuan keuangan yang diungkapkan. Perlombaan senjata AI di antara penyedia cloud tidak menunjukkan tanda-tanda melambat, dan memastikan rantai pasokan CPU dan chip kustom yang andal menjadi semakin strategis seperti pengadaan GPU. Apakah Intel dapat menskalakan manufakturnya dengan cukup cepat untuk memanfaatkan permintaan ini — sambil mengelola kendala pasokan yang sedang berlangsung — tetap menjadi pertanyaan terbuka.

Alex McFarland adalah seorang jurnalis dan penulis AI yang menjelajahi perkembangan terbaru dalam kecerdasan buatan. Ia telah berkolaborasi dengan berbagai startup dan publikasi AI di seluruh dunia.