ืืื ื ืืืืืืชืืช
Google ื-Intel ืืจืืืืื ืืช ืฉืืชืคืืชื ืืืืฆืืจ ืฉืืืื ืืชืฉืชืืช AI

Google ו-Intel הודיעו על הרחבה רב-שנתית של שותפותם לתשתית עננים, והתחייבו להמשך הפריסה של מעבדי Intel Xeon ברחבי Google Cloud ולפיתוח משותף מורחב של יחידות עיבוד מנותבות (IPU) מותאמות לעומסי עבודה של AI.
ההסכם, שפורסם ב-9 באפריל, כולל שני תחומים: Google Cloud תמשיך להשתמש בדורות מרובים של מעבדי Intel Xeon, כולל ה-Xeon 6 האחרונים שמניעים את מכונות ה-C4 ו-N4, ל-AI אינפרנס, תיאום אימון וחישוב כללי. בנפרד, שתי החברות ירחיבו את הפיתוח המשותף של IPU מותאמות-ASIC, מאיצים תכנותיים שמרים משימות רשת, אחסון ואבטחה מ-CPU המארח במרכזי נתונים.
Intel ו-Google עובדים יחד על IPU מאז 2022, כאשר ה-IPU המותאם הראשון — שקיבל את הכינוי Mount Evans — יצא לאור לצד מכונות C3 של Google Cloud. IPU אלו פועלים ב-200 Gbps ומטפלים במשימות כגון רשתות וירטואליות ופעולות אחסון שיכלו לצרוך משאבי CPU שנועדו לעומסי עבודה של לקוחות. הדור הבא של IPU שפותחו במשותף לא פורט, אם כי צופים בתעשייה מצפים למהירויות גבוהות יותר, בהתחשב בדרישות הרשת של קלאסטרים מודרניים של חישוב AI.
למה CPUs עדיין חשובים ל-AI
השותפות מדגישה מהפך בדרך שבה התעשייה חושבת על תשתית AI. בעוד GPUs ומאיצים מותאמים כמו Google’s TPUs מטפלים בחישוב הכבד של אימון וריצה של מודלי AI, CPUs נותרים חיוניים לתזמון עומסי עבודה מבוזרים, ניהול צינורות נתונים וריצה של התשתית התומכת ששומרת מערכות AI בקנה מידה גדול.
מנכ”ל Intel, Lip-Bu Tan, הציג את העסקה סביב המציאות הזו בהודעה לעיתונות של החברה: החברה טוענת שהגדלת AI דורשת מערכות מאוזנות שבהן CPUs ו-IPU עובדים לצד מאיצים, ולא מערכות הבנויות על מאיצים בלבד.
Amin Vahdat, SVP וראש הטכנולוגיה של Google לתשתית AI, הציין כי Intel הייתה שותפה למעלה מכמעט שני עשורים, וכי דרך Xeon נותנת ל-Google ביטחון בקבלת ביצועים ויעילות בעתיד.
העסקה מגיעה בעת מחסור משמעותי ב-CPU. Intel כרגע מתמודדת עם מחסור בצמתים Intel 10 ו-Intel 7, שם רוב הייצור של Xeon יושב. זמני ההמתנה ל-CPU שרתים התארכו לשישה חודשים במקרים מסוימים, ו-Intel אישרה עליית מחירים כאשר הביקוש עוקף את ההיצע. החברה מעדיפה שבבים למרכזי נתונים על פני מעבדים לצרכנים כדי לטפל במחסור.
נוף השבבים הרחב יותר של AI
עסקי ה-ASIC המותאמים של Intel, הכוללים את עבודת ה-IPU המשותפת עם Google, הפכו לזרם הכנסה משמעותי. מנהל הכספים של Intel, David Zinsner, אמר בשיחת הרווחים של החברה לרבעון הרביעי של 2025 כי חטיבת השבבים המותאמים גדלה יותר מ-50% ב-2025 ויצאה מהרבעון הרביעי בקצב הכנסות מעובד שנתי של מעל 1 מיליארד דולר.
העסקה חשובה גם מבחינה תחרותית. Google מפעילה את ה-CPU המבוססת Arm שלה, Axion, לעומסי עבודה פנימיים וללקוחות. Amazon בונה Nitro NICs מותאמים דרך חטיבת Annapurna Labs, ו-Microsoft משתמשת בפתרונות מבוססי FPGA לנטעים תשתיתיים דומים. בכך ש-Google ממשיכה לפתח IPU במשותף עם Intel במקום לבנות אותם לגמרי בבית, Google שומרת על גישה שונה מחברות ההיפרסקיילר האחרות — גישה שמחזיקה את Intel בלופ כספקית CPU ושותפה לצורה מותאמת.
עבור Intel, השותפות מספקת אישור בולט לאסטרטגיית מרכז הנתונים של החברה תחת הנהגתו של Tan. החברה התמודדה עם שאלות לגבי הרלוונטיות שלה כאשר ספקי עננים מעצבים את השבבים שלהם. שמירה על מערכת יחסים של צורה מותאמת עמוקה עם אחד ממפעילי הענן הגדולים בעולם מסמנת כי יכולות ה-פאונדרי והעיצוב של Intel נותרו תחרותיות לעומסי עבודה ביקורתיים לתשתית.
לא פורסמו תנאים פיננסיים. המרוץ החמוש של AI בין ספקי הענן לא מראה סימנים של האטה, והבטחת שרשראות אספקה אמינות של CPU ושבבים מותאמים הופכת להיות מהותית כמו רכישת GPU. האם Intel תוכל להגדיל את יכולות הייצור שלה מספיק כדי לנצל את הביקוש — תוך ניהול המחסור הנוכחי — נותר השאלה הפתוחה.












