Connect with us

Inteligență artificială

Google și Intel Extind Parteneriatul pentru Procesoare pentru Infrastructura de Inteligență Artificială

mm

Google și Intel au anunțat o extindere pe mai mulți ani a parteneriatului lor pentru infrastructura de cloud, angajându-se să continue implementarea procesoarelor Intel Xeon în Google Cloud și să extindă dezvoltarea comună a unităților de procesare personalizate (IPU) concepute pentru sarcini de inteligență artificială.

Acordul, anunțat pe 9 aprilie, acoperă două domenii: Google Cloud va continua să utilizeze multiple generații de procesoare Intel Xeon, inclusiv cele mai recente procesoare Xeon 6 care alimentează instanțele virtuale C4 și N4, pentru inferență AI, coordonarea antrenamentului și calculul cu scop general. Separat, cele două companii vor extinde dezvoltarea comună a IPU-urilor personalizate bazate pe ASIC, acceleratoare programabile care preiau funcțiile de rețea, stocare și securitate de la procesoarele gazdă din centrele de date.

Intel și Google colaborează la IPU-uri din 2022, când a fost lansat primul IPU personalizat — cu numele de cod Mount Evans — alături de instanțele C3 ale Google Cloud. Aceste IPU-uri funcționează la 200 Gbps și gestionează sarcini precum rețelele virtuale și operațiunile de stocare care ar consuma în mod normal resurse CPU destinate sarcinilor utilizatorilor. Următoarea generație de IPU-uri dezvoltate în comun nu a fost detaliată, deși observatorii din industrie se așteaptă la viteze mai mari, având în vedere cerințele de rețea ale clusterelor de calcul moderne AI.

De ce procesoarele CPU încă mai contează pentru AI

Parteneriatul subliniază o schimbare în modul în care industria gândește despre infrastructura de inteligență artificială. În timp ce GPU-urile și acceleratoarele personalizate, cum ar fi TPU-urile Google, gestionează calculele grele ale antrenamentului și rulării modelelor AI, procesoarele CPU rămân esențiale pentru orchestrarea sarcinilor distribuite, gestionarea fluxurilor de date și rularea infrastructurii de suport care menține sistemele AI la scară largă operaționale.

CEO-ul Intel, Lip-Bu Tan, a descris acordul în jurul acestei realități în comunicatul de presă al companiei: compania argumentează că scalarea inteligenței artificiale necesită sisteme echilibrate în care procesoarele CPU și IPU-urile lucrează alături de acceleratoare, nu sisteme construite doar pe acceleratoare.

Amin Vahdat, vicepreședinte senior și tehnolog-șef pentru infrastructura de inteligență artificială a Google, a remarcat că Intel a fost un partener pentru aproape două decenii și că ruta Xeon oferă Google încredere în îndeplinirea cerințelor de performanță și eficiență în viitor.

Acordul vine într-un moment de constrângeri semnificative ale aprovizionării cu CPU. Intel se confruntă în prezent cu lipsuri pe nodurile de fabricație Intel 10 și Intel 7, unde se află cea mai mare parte a producției de procesoare Xeon. Timpii de livrare pentru procesoarele de server s-au extins la șase luni în unele cazuri, iar Intel a confirmat creșterile de preț, deoarece cererea depășește oferta. Compania prioritizează procesoarele de centru de date înaintea procesoarelor pentru consumatori pentru a aborda criza.

Peisajul Mai Larg al Circuitelor Integrate pentru Inteligență Artificială

Afacerile Intel cu circuite integrate personalizate, care includ lucrările de dezvoltare comună a IPU-urilor cu Google, au devenit o sursă semnificativă de venit. CFO-ul Intel, David Zinsner, a declarat în timpul apelului de venituri al companiei pentru trimestrul IV 2025 că divizia de circuite integrate personalizate a crescut cu peste 50% în 2025 și a încheiat trimestrul al patrulea cu o rată anuală de venituri de peste 1 miliard de dolari.

Acordul are și o importanță competitivă. Google operează propriul său CPU bazat pe Arm, Axion, atât pentru sarcinile interne, cât și pentru sarcinile clienților. Amazon construiește NIC-uri personalizate Nitro prin divizia Annapurna Labs, iar Microsoft utilizează soluții bazate pe FPGA pentru o descărcare similară a infrastructurii. Prin continuarea dezvoltării IPU-urilor cu Intel, în loc să construiască integral în interior, Google menține o abordare diferită de cea a colegilor săi hyperscaler — una care păstrează Intel în buclă atât ca furnizor de CPU, cât și ca partener de siliciu personalizat.

Pentru Intel, parteneriatul oferă o validare de înaltă calitate a strategiei sale de centru de date sub conducerea lui Tan. Compania a întâmpinat întrebări cu privire la relevanța sa, pe măsură ce furnizorii de cloud proiectează din ce în ce mai mult propriile circuite integrate. Menținerea unei relații de siliciu personalizat profundă cu unul dintre cei mai mari operatori de cloud din lume semnalează că capacitățile de fondrie și proiectare ale Intel rămân competitive pentru sarcinile critice pentru infrastructură.

Nu au fost divulgate termene financiare. Cursele de armament pentru inteligență artificială între furnizorii de cloud nu arată semne de încetinire, iar asigurarea lanțurilor de aprovizionare cu CPU și circuite integrate personalizate devine la fel de strategică ca și achiziționarea de GPU-uri. Indiferent dacă Intel poate scala producția sa suficient de repede pentru a capitaliza această cerere — în timp ce gestionează constrângerile sale continue de aprovizionare — rămâne întrebarea deschisă.

Alex McFarland este un jurnalist și scriitor de inteligență artificială, care explorează cele mai recente dezvoltări în domeniul inteligenței artificiale. El a colaborat cu numeroase startup-uri de inteligență artificială și publicații din întreaga lume.