Connect with us

Google Cloud Next 2025: सिलिकॉन, सॉफ़्टवेयर और एक ओपन एजेंट इकोसिस्टम के साथ AI पर दोगुना दांव

घोषणाएँ

Google Cloud Next 2025: सिलिकॉन, सॉफ़्टवेयर और एक ओपन एजेंट इकोसिस्टम के साथ AI पर दोगुना दांव

mm

लास वेगास में Google Cloud Next 2025 की मेज़बानी हो रही है, एक ऐसा आयोजन जो प्रौद्योगिकी उद्योग के लिए एक महत्वपूर्ण क्षण में सामने आ रहा है। क्लाउड दिग्गजों – Amazon Web Services (AWS), Microsoft Azure, और Google Cloud – के बीच कृत्रिम बुद्धिमत्ता की हथियारों की दौड़ तेज़ी से बढ़ रही है। Google, जिसे अक्सर तीसरे प्रतिद्वंद्वी के रूप में देखा जाता है, भले ही उसकी प्रभावशाली तकनीकी क्षमता और गहरी AI शोध जड़ें हों, ने Cloud Next के मंच का उपयोग उद्यम AI बाज़ार पर सीधे निशाना साधते हुए एक व्यापक और आक्रामक रणनीति स्पष्ट करने के लिए किया। Google Cloud के CEO थॉमस कुरियन द्वारा प्रस्तुत और Google और Alphabet के CEO सुंदर पिचाई द्वारा दोहराई गई कहानी, AI परिवर्तन को केवल संभावना से मूर्त वास्तविकता में ले जाने पर केंद्रित थी। Google ने अपनी दावा की गई गति पर ज़ोर दिया, पिछले एक साल में 3,000 से अधिक उत्पाद उन्नयन, पिछले Cloud Next आयोजन के बाद से Vertex AI प्लेटफ़ॉर्म के उपयोग में बीस गुना वृद्धि, इसके Gemini मॉडल परिवार के साथ सक्रिय रूप से निर्माण कर रहे चार मिलियन से अधिक डेवलपर्स, और सम्मेलन के दौरान 500 से अधिक ग्राहक सफलता की कहानियों को प्रदर्शित करने का हवाला दिया। हालांकि, Google Cloud Next 2025 केवल वृद्धिशील अपडेट या प्रभावशाली मेट्रिक्स का प्रदर्शन नहीं था। इसने एक बहुआयामी आक्रमण भी उजागर किया। शक्तिशाली, इनफेरेंस-अनुकूलित कस्टम सिलिकॉन (Ironwood TPU) लॉन्च करके, व्यावहारिकता पर ध्यान केंद्रित करते हुए अपने प्रमुख AI मॉडल पोर्टफोलियो को परिष्कृत करके (Gemini 2.5 Flash), उद्यमों के लिए अपने विशाल वैश्विक नेटवर्क बुनियादी ढांचे को खोलकर (Cloud WAN), और AI एजेंटों के लिए एक खुले, अंतरसंचालनीय इकोसिस्टम पर एक महत्वपूर्ण, रणनीतिक दांव लगाकर (Agent2Agent प्रोटोकॉल), Google खुद को उद्यम AI के अगले विकासवादी चरण को परिभाषित करने के लिए आक्रामक रूप से स्थापित कर रहा है – जिसे कंपनी तेज़ी से “एजेंटिक युग” कह रही है।

Ironwood, Gemini, और नेटवर्क प्रभाव

Google की AI महत्वाकांक्षाओं के केंद्र में कस्टम सिलिकॉन में इसका निरंतर निवेश है। Cloud Next 2025 का सितारा Ironwood था, Google के Tensor Processing Unit (TPU) की सातवीं पीढ़ी। महत्वपूर्ण रूप से, Ironwood को स्पष्ट रूप से AI इनफेरेंस – प्रशिक्षित मॉडलों का उपयोग वास्तविक दुनिया के अनुप्रयोगों में भविष्यवाणियाँ करने या आउटपुट उत्पन्न करने की प्रक्रिया – के लिए डिज़ाइन किया गया पहला TPU प्रस्तुत किया गया है। Ironwood के लिए प्रदर्शन दावे पर्याप्त हैं। Google ने एकल पॉड के भीतर आपस में जुड़े 9,216 तरल-शीतलित चिप्स तक स्केल करने वाले विशाल कॉन्फ़िगरेशन का विवरण दिया। इस सबसे बड़े कॉन्फ़िगरेशन से 42.5 एक्साफ्लॉप्स की गणना शक्ति प्रदान करने का दावा किया गया है। Google का दावा है कि यह El Capitan, जिसे वर्तमान में दुनिया का सबसे शक्तिशाली सुपरकंप्यूटर माना जाता है, की प्रति-पॉड गणना शक्ति से 24 गुना से अधिक का प्रतिनिधित्व करता है। हालांकि प्रभावशाली, यह ध्यान रखना महत्वपूर्ण है कि ऐसी तुलनाओं में अक्सर संख्यात्मक सटीकता के विभिन्न स्तर शामिल होते हैं, जिससे सीधी समानता जटिल हो जाती है। फिर भी, Google Ironwood को अपनी पिछली उच्च-प्रदर्शन TPU पीढ़ी से दस गुना से अधिक सुधार के रूप में स्थापित करता है। कच्ची गणना से परे, Ironwood अपने पूर्ववर्ती, Trillium (TPU v6) की तुलना में मेमोरी और इंटरकनेक्टिविटी में महत्वपूर्ण उन्नति का दावा करता है। शायद उतना ही महत्वपूर्ण ऊर्जा दक्षता पर ज़ोर है। Google का दावा है कि Ironwood, Trillium की तुलना में प्रति वाट दोगुना प्रदर्शन प्रदान करता है और 2018 के अपने पहले Cloud TPU की तुलना में लगभग 30 गुना अधिक शक्ति-कुशल है। यह सीधे तौर पर AI के लिए डेटा केंद्रों को स्केल करने में बिजली की उपलब्धता की बढ़ती बाधा को संबोधित करता है।

Google TPU पीढ़ी तुलना: Ironwood (v7) बनाम Trillium (v6)

विशेषता Trillium (TPU v6) Ironwood (TPU v7) सुधार कारक
प्राथमिक फोकस प्रशिक्षण और इनफेरेंस इनफेरेंस विशेषज्ञता
पीक कंप्यूट/चिप सीधे तुलनीय नहीं (अलग पीढ़ी) 4,614 TFLOPs (संभवतः FP8)
HBM क्षमता/चिप 32 GB (6x दावे के आधार पर अनुमानित) 192 GB 6x
HBM बैंडविड्थ/चिप ~1.6 Tbps (4.5x के आधार पर अनुमानित) 7.2 Tbps 4.5x
ICI बैंडविड्थ (द्विदिश) ~0.8 Tbps (1.5x के आधार पर अनुमानित) 1.2 Tbps 1.5x
पिछली पीढ़ी बनाम प्रदर्शन/वाट तुलना के लिए आधार रेखा Trillium बनाम 2x 2x
TPU v1 (2018) बनाम प्रदर्शन/वाट ~15x (अनुमानित) लगभग 30x Trillium बनाम ~2x

नोट: कुछ Trillium आंकड़े Ironwood के लिए Google के दावा किए गए सुधार कारकों के आधार पर अनुमानित हैं। पीक कंप्यूट तुलना पीढ़ीगत अंतर और संभावित सटीकता भिन्नताओं के कारण जटिल है। Ironwood Google की “AI हाइपरकंप्यूटर” अवधारणा का एक प्रमुख हिस्सा बनता है – एक आर्किटेक्चर जो अनुकूलित हार्डवेयर (TPU और Nvidia के Blackwell और आगामी Vera Rubin जैसे GPU सहित), सॉफ़्टवेयर (Pathways वितरित ML रनटाइम की तरह), स्टोरेज (Hyperdisk Exapools, Managed Lustre), और नेटवर्किंग को एकीकृत करता है ताकि मांग वाले AI वर्कलोड से निपटा जा सके। मॉडल के मोर्चे पर, Google ने Gemini 2.5 Flash पेश किया, जो उच्च-स्तरीय Gemini 2.5 Pro के लिए एक रणनीतिक प्रतिसंतुलन है। जबकि Pro जटिल तर्क के लिए अधिकतम गुणवत्ता को लक्षित करता है, Flash को स्पष्ट रूप से कम विलंबता और लागत दक्षता के लिए अनुकूलित किया गया है, जिससे यह उच्च-मात्रा, वास्तविक समय के अनुप्रयोगों जैसे ग्राहक सेवा संपर्क या त्वरित सारांशीकरण के लिए उपयुक्त है। Gemini 2.5 Flash में एक गतिशील “थिंकिंग बजट” है जो क्वेरी जटिलता के आधार पर प्रोसेसिंग को समायोजित करता है, जिससे उपयोगकर्ता गति, लागत और सटीकता के बीच संतुलन को ट्यून कर सकते हैं। एक उच्च-प्रदर्शन इनफेरेंस चिप (Ironwood) और एक लागत/विलंबता-अनुकूलित मॉडल (Gemini Flash) पर यह एक साथ ध्यान, AI के व्यावहारिक संचालनीकरण की ओर Google के धक्के को रेखांकित करता है, यह स्वीकार करते हुए कि उत्पादन में मॉडल चलाने की ल

एलेक्स मैकफारलैंड एक एआई पत्रकार और लेखक हैं जो कृत्रिम बुद्धिमत्ता में नवीनतम विकास की खोज करते हैं। उन्होंने दुनिया भर में कई एआई स्टार्टअप्स और प्रकाशनों के साथ सहयोग किया है।