Connect with us

Google και Intel Επεκτείνουν τη Συνεργασία τους για Τσιπ για Υποδομή AI

Τεχνητή νοημοσύνη

Google και Intel Επεκτείνουν τη Συνεργασία τους για Τσιπ για Υποδομή AI

mm

Η Google και η Intel έχουν ανακοινώσει μια πολυετή επέκταση της συνεργασίας τους για υποδομή cloud, δεσμευόμενοι για τη συνεχής ανάπτυξη των επεξεργαστών Intel Xeon σε όλη τη Google Cloud και την επέκταση της συν-ανάπτυξης των προσαρμοσμένων μονάδων επεξεργασίας υποδομής (IPUs) που σχεδιάζονται για φόρτους εργασίας AI.

Το συμφωνία, που ανακοινώθηκε στις 9 Απριλίου, καλύπτει δύο περιοχές: Η Google Cloud θα συνεχίσει να χρησιμοποιεί πολλές γενιές επεξεργαστών Intel Xeon, συμπεριλαμβανομένων των τελευταίων επεξεργαστών Xeon 6 που τροφοδοτούν τις εικονικές μηχανές C4 και N4, για επιERENCE AI, συντονισμό εκπαίδευσης και γενικής χρήσης υπολογισμού. Ξεχωριστά, οι δύο εταιρείες θα επεκτείνουν την κοινή ανάπτυξη των προσαρμοσμένων μονάδων επεξεργασίας υποδομής (IPUs) με βάση ASIC, προγραμματιζόμενων επιταχυντών που αποφορτώνουν λειτουργίες δικτύωσης, αποθήκευσης και ασφάλειας από τους κεντρικούς επεξεργαστές σε κέντρα δεδομένων.

Η Intel και η Google συνεργάζονται για τις IPUs από το 2022, όταν η πρώτη προσαρμοσμένη IPU — με το κωδικό όνομα Mount Evans — κυκλοφόρησε μαζί με τις εκземπλάρεις C3 της Google Cloud. Αυτές οι IPUs λειτουργούν στα 200 Gbps και χειρίζονται εργασίες όπως εικονική δικτύωση και λειτουργίες αποθήκευσης που θα κατανάλωναν πόρους CPU που προορίζονται για φόρτους εργασίας πελατών. Η επόμενη γενιά των κοινών IPUs δεν έχει περιγραφεί, αν και οι παρατηρητές του κλάδου περιμένουν υψηλότερες ταχύτητες δεδομένου του δικτύου απαιτήσεων των σύγχρονων κλασμάτων υπολογισμού AI.

Γιατί οι CPU Ακόμα Έχουν Σημασία για το AI

Η συνεργασία υπογραμμίζει μια μετατόπιση σε тому πώς ο κλάδος σκέφτεται για υποδομή AI. Ενώ οι GPU και οι προσαρμοσμένοι επιταχυντές όπως οι TPUs της Google χειρίζονται τον βαρύ υπολογισμό της εκπαίδευσης και του τρένουν των μοντέλων AI, οι CPU παραμένουν απαραίτητοι για την ορχήστρα των κατανεμημένων φόρτων εργασίας, τη διαχείριση των πιπερών δεδομένων και την εκτέλεση της υποστηρικτικής υποδομής που διατηρεί τα μεγάλα συστήματα AI λειτουργικά.

Ο CEO της Intel, Lip-Bu Tan, κατέγραψε τη συμφωνία γύρω από αυτή την πραγματικότητα στην ανακοίνωση τύπου της εταιρείας: η εταιρεία υποστηρίζει ότι η κλιμάκωση του AI απαιτεί ισορροπημένα συστήματα όπου οι CPU και οι IPUs εργάζονται μαζί με επιταχυντές, όχι συστήματα που κατασκευάζονται μόνο με επιταχυντές.

Ο Amin Vahdat, ο Αντιπρόεδρος και Αρχιτέκτονας της Google για την Υποδομή AI, σημείωσε ότι η Intel έχει sido συνεργάτης για σχεδόν δύο δεκαετίες και ότι ο δρόμος του Xeon δίνει στη Google την εμπιστοσύνη για την ικανοποίηση των απαιτήσεων απόδοσης και αποδοτικότητας στο μέλλον.

Η συμφωνία έρχεται σε μια περίοδο σημαντικών περιορισμών στην προσφορά CPU. Η Intel παλεύει目前 με ελλείψεις σε όλα τα Intel 10 και Intel 7 manufacturing nodes, όπου βρίσκεται η większość της παραγωγής Xeon. Οι χρόνοι παράδοσης για τους επεξεργαστές διακομιστή έχουν εκτεταθεί σε έξι μήνες σε ορισμένες περιπτώσεις και η Intel έχει επιβεβαιώσει αυξήσεις τιμών καθώς η ζήτηση υπερβαίνει την προσφορά. Η εταιρεία προτεραιοποιεί τους επεξεργαστές κέντρου δεδομένων έναντι των επεξεργαστών καταναλωτών για να αντιμετωπίσει την πίεση.

Το Πλατύ Τοπίο Τσιπ AI

Η επιχείρηση προσαρμοσμένων ASIC της Intel, η οποία περιλαμβάνει την κοινή ανάπτυξη των IPUs με την Google, έχει γίνει một σημαντική πηγή εσόδων. Ο CFO της Intel, David Zinsner, είπε κατά τη διάρκεια της τηλεφωνικής συνεδρίας των εσόδων του Q4 2025 ότι η διεύθυνση των προσαρμοσμένων τσιπ αυξήθηκε περισσότερο από 50% το 2025 και έφτασε σε einen ετήσιο ρυθμό εσόδων πάνω από 1 δισεκατομμύριο δολάρια.

Η συμφωνία έχει επίσης σημασία ανταγωνιστικά. Η Google λειτουργεί το δικό της Arm-based CPU, Axion, για cả τις εσωτερικές και τις εξωτερικές φόρτους εργασίας. Η Amazon κατασκευάζει προσαρμοσμένα Nitro NICs μέσω της Annapurna Labs και η Microsoft χρησιμοποιεί λύσεις με βάση FPGA για παρόμοια αποφόρτωση υποδομής. Συνεχίζοντας να αναπτύσσει IPUs με την Intel αντί να κατασκευάζει εντελώς εσωτερικά, η Google διατηρεί μια διαφορετική προσέγγιση από τους ομόλογούς της — μια που διατηρεί την Intel στην πηγή ως προμηθευτή CPU και συνεργάτη προσαρμοσμένου σιλικονίου.

Για την Intel, η συνεργασία παρέχει μια υψηλού προφίλ επικύρωση της στρατηγικής κέντρου δεδομένων υπό την ηγεσία του Tan. Η εταιρεία έχει αντιμετωπίσει ερωτήσεις σχετικά με τη σχετικότητά της καθώς οι παρόχοι cloud σχεδιάζουν τους δικούς τους επεξεργαστές. Η διατήρηση μιας βαθιάς σχέσης προσαρμοσμένου σιλικονίου με έναν από τους μεγαλύτερους оперάτορες cloud του κόσμου σηματοδοτεί ότι οι ικανότητες foundry και σχεδίασης της Intel παραμένουν ανταγωνιστικές για φόρτους εργασίας κρίσιμους για την υποδομή.

Δεν ανακοινώθηκαν οικονομικοί όροι. Ο αγώνας AI μεταξύ των παρόχων cloud δεν δείχνει κανένα σημάδι που να δείχνει ότι θα επιβραδύνει, και η εξασφάλιση αξιόπιστων αλυσίδων εφοδιασμού CPU και προσαρμοσμένων τσιπ γίνεται όλο και πιο στρατηγικά σημαντική όσο η προμήθεια GPU. Εάν η Intel μπορεί να κλιμακώσει την παραγωγή της αρκετά γρήγορα για να εκμεταλλευτεί αυτή τη ζήτηση — ενώ διαχειρίζεται τις συνεχιζόμενες περιορισμούς στην προσφορά — παραμένει το ανοιχτό ερώτημα.

Ο Alex McFarland είναι δημοσιογράφος και συγγραφέας του AI που εξερευνά τις τελευταίες εξελίξεις στην τεχνητή νοημοσύνη. Έχει συνεργαστεί με πολλές startups και εκδόσεις του AI σε όλο τον κόσμο.