Connect with us

인공지능

Google과 Intel, AI 인프라를 위한 칩 파트너십 확대

mm

Google과 Intel은 클라우드 인프라 파트너십을 다년간 확대하기로 발표했으며, Google Cloud에서 Intel Xeon 프로세서를 계속 배치하고 AI 워크로드를 위한 맞춤형 인프라 처리 유닛(IPU)의 공동 개발을 확대하기로 했다.

합의는 4월 9일에 발표되었으며, 두 가지 영역을 다루고 있다. Google Cloud는 AI 추론, 트레이닝 조정, 일반-purpose 컴퓨팅을 위한 여러 покол리의 Intel Xeon 프로세서, 최신 Xeon 6 칩을 포함하여 C4 및 N4 가상 머신 인스턴스를 계속 사용할 것이다. 별도로, 두 회사에서는 데이터 센터에서 호스트 CPU에서 네트워킹, 스토리지, 보안 기능을 오프로드하는 프로그래머블 가속기인 맞춤형 ASIC 기반 IPU의 공동 개발을 확대할 것이다.

Intel과 Google는 2022년부터 IPU를 공동으로 개발해 왔다. 그 때 첫 번째 맞춤형 IPU — 코드명 Mount Evans — 가 Google Cloud의 C3 인스턴스와 함께 출시되었다. 이러한 IPU는 200 Gbps에서 작동하며, CPU 리소스를 소모하는 가상 네트워킹 및 스토리지 작업과 같은 작업을 처리한다. 다음 세대 공동 개발 IPU의 세부 사항은 공개되지 않았지만, 산업 관찰자들은 현대 AI 컴퓨팅 클러스터의 네트워킹 요구에 비추어 더 높은 속도를 기대한다.

CPU가 여전히 AI에 중요한 이유

이 파트너십은 산업이 AI 인프라에 대해 생각하는 방식의 변화를 강조한다. GPU와 Google의 TPU와 같은 맞춤 가속기가 AI 모델의 트레이닝 및 실행의 중대한 계산을 처리하는 반면, CPU는 분산 워크로드를 조정하고 데이터 파이프라인을 관리하며 대규모 AI 시스템을 작동시키는 지원 인프라를 실행하는 데 필수적이다.

Intel CEO Lip-Bu Tan은 회사의 보도 자료에서 이 거래를围繞这一现实로 구분했다. 회사는 CPU와 IPU가 가속기와 함께 작동하는 균형 있는 시스템이 필요한 반면, 가속기만으로 구성된 시스템은 필요하지 않다고 주장한다.

Amin Vahdat, Google의 SVP 및 AI 인프라 수석 기술자,는 Intel이 거의 2십년 동안 파트너였으며 Xeon 로드맵이 향후 성능 및 효율성 요구를 충족하는 데 대한 자신감을 주었다고 말했다.

이 거래는 중요한 CPU 공급 제약의 시기에 이루어졌다. Intel은 현재 Intel 10 및 Intel 7 제조 노드에서 부족을 겪고 있으며, 여기에는 대부분의 Xeon 생산이 포함된다. 서버 CPU의 리드 타임은 경우에 따라 6개월까지延長되었으며, Intel은 수요가 공급을 초과함에 따라 가격 인상을 확인했다. 회사는 데이터 센터 칩을 우선적으로 소비자 프로세서보다 우선시하여 부족을 해결하고 있다.

더 넓은 AI 칩 풍경

Intel의 맞춤 ASIC 사업, 이는 Google와의 IPU 공동 개발 작업을 포함한다,는 중요한 수익 흐름이 되었다. Intel CFO David Zinsner는 회사의 2025년 4분기 실적 발표에서 맞춤 칩 부문이 2025년에 50% 이상 성장했으며, 4분기 연간 매출액은 10억 달러 이상이라고 말했다.

이 거래는 경쟁적으로 중요하다. Google은 내부 및 고객용 워크로드를 모두 위한 Arm 기반 CPU인 Axion을 운영한다. Amazon은 Annapurna Labs 부문을 통해 맞춤 Nitro NIC를 구축하며, Microsoft는 유사한 인프라 오프로드를 위한 FPGA 기반 솔루션을 사용한다. Intel과 IPU를 공동으로 개발하는 대신 완전히 자체 개발하는 대신, Google은 다른 하이퍼스케일러 피어와 다른 접근 방식을 유지한다. 이는 Intel을 CPU 공급자 및 맞춤 실리콘 파트너로 유지한다.

Intel에게 이 파트너십은 Tan의 리더십下的 데이터 센터 전략의 고유한 검증을 제공한다. 회사는 클라우드 제공업체가 자신의 칩을 설계함에 따라 관련성에 대한 질문에 직면해 왔다. 세계에서 가장 큰 클라우드 운영업체 중 하나와의 깊은 맞춤 실리콘 관계를 유지함으로써, Intel의 파운드리 및 설계 기능이 인프라에 중요한 워크로드에 대해 여전히 경쟁력을 유지하고 있음을 시사한다.

금융 조건은 공개되지 않았다. 클라우드 제공업체 간의 AI 경쟁은 속도조차 없이 지속되고 있으며, 신뢰할 수 있는 CPU 및 맞춤 칩 공급망을 확보하는 것은 GPU 조달만큼 전략적으로 중요해지고 있다. Intel이 수요에 대응하기 위해 제조를 얼마나 빠르게 확대할 수 있는지, 그리고 동시에 지속적인 공급 제약을 관리할 수 있는지는 여전히 열린 질문이다.

Alex McFarland은 인공 지능의 최신 개발을 탐구하는 AI 저널리스트이자 작가입니다. 그는 전 세계의 수많은 AI 스타트업과 출판물들과 협력했습니다.