गूगल का Ironwood TPU: AI में क्रांति

गूगल (Google) का Ironwood TPU: AI कंप्यूट में क्रांति

कृत्रिम बुद्धिमत्ता (AI) का परिदृश्य लगातार विकसित हो रहा है, जिसमें हार्डवेयर में उन्नति नई संभावनाओं को अनलॉक करने में महत्वपूर्ण भूमिका निभा रही है। गूगल (Google), AI इनोवेशन में सबसे आगे रहने वाली कंपनी, ने हाल ही में अपने सातवीं पीढ़ी के टेंसर प्रोसेसिंग यूनिट (TPU) का अनावरण किया है, जिसका कोडनाम Ironwood है, जो AI कंप्यूट क्षमताओं में एक महत्वपूर्ण कदम है। यह अत्याधुनिक AI एक्सीलरेटर (accelerator) एक कम्प्यूटेशनल पराक्रम का दावा करता है जो बड़े पैमाने पर तैनाती में दुनिया के सबसे तेज़ सुपर कंप्यूटरों को भी 24 के आश्चर्यजनक कारक से पीछे छोड़ देता है।

गूगल क्लाउड नेक्स्ट ‘25 सम्मेलन में घोषित, Ironwood AI चिप विकास की गूगल की दशक-लंबी यात्रा में एक रणनीतिक धुरी का प्रतिनिधित्व करता है। अपने पूर्ववर्तियों के विपरीत, जिन्हें मुख्य रूप से AI प्रशिक्षण और अनुमान कार्यभार के लिए डिज़ाइन किया गया था, Ironwood विशेष रूप से अनुमान कार्यों में उत्कृष्टता प्राप्त करने के लिए इंजीनियर किया गया है, जो AI-संचालित अनुप्रयोगों के एक नए युग की शुरुआत करता है।

गूगल में मशीन लर्निंग, सिस्टम्स और क्लाउड AI के उपाध्यक्ष और महाप्रबंधक अमीन वाहादत के अनुसार, “Ironwood को जेनरेटिव AI और इसकी भारी कंप्यूट और संचार आवश्यकताओं के अगले चरण का समर्थन करने के लिए डिज़ाइन किया गया है। यह वही है जिसे हम ‘अनुमान युग’ कहते हैं, जहां AI एजेंट सक्रिय रूप से अंतर्दृष्टि और उत्तर देने के लिए डेटा प्राप्त और उत्पन्न करेंगे, न कि केवल डेटा।”

Ironwood की अभूतपूर्व क्षमताओं का अनावरण

Ironwood के तकनीकी विनिर्देश असाधारण से कम नहीं हैं। जब 9,216 चिप्स के पॉड तक स्केल किया जाता है, तो यह AI कंप्यूट शक्ति के 42.5 exaflops की चौंका देने वाली मात्रा प्रदान कर सकता है। यह आंकड़ा El Capitan द्वारा दी गई 1.7 exaflops को बौना बनाता है, जो वर्तमान में दुनिया के सबसे तेज़ सुपर कंप्यूटर का खिताब अपने नाम रखता है। प्रत्येक व्यक्तिगत Ironwood चिप 4,614 TFLOPs की पीक कंप्यूट क्षमता का दावा करती है।

सिर्फ प्रोसेसिंग पावर से परे, Ironwood में मेमोरी और बैंडविड्थ में भी महत्वपूर्ण सुधार हैं। प्रत्येक चिप 192GB हाई-बैंडविड्थ मेमोरी (HBM) से लैस है, जो पिछली पीढ़ी के TPU, Trillium की तुलना में छह गुना अधिक है, जिसे पिछले साल जारी किया गया था। इसके अलावा, प्रति चिप मेमोरी बैंडविड्थ 7.2 terabits/s तक पहुंचती है, जो Trillium पर 4.5 गुना सुधार का प्रतिनिधित्व करती है।

एक ऐसे युग में जहां डेटा सेंटर का विस्तार हो रहा है और बिजली की खपत एक महत्वपूर्ण चिंता बन रही है, Ironwood अपनी ऊर्जा दक्षता के लिए भी खड़ा है। इसकी प्रदर्शन प्रति वाट Trillium की तुलना में दोगुनी और 2018 में पेश किए गए पहले TPU की तुलना में लगभग 30 गुना अधिक है।

अनुमान अनुकूलन पर जोर AI परिदृश्य में एक महत्वपूर्ण बदलाव का संकेत देता है। हाल के वर्षों में, अग्रणी AI प्रयोगशालाओं ने मुख्य रूप से बढ़ती पैरामीटर गणना के साथ बड़े नींव मॉडल बनाने पर ध्यान केंद्रित किया है। अनुमान अनुकूलन पर गूगल का ध्यान तैनाती दक्षता और अनुमान क्षमताओं पर केंद्रित एक नए चरण की ओर बदलाव का सुझाव देता है।

जबकि मॉडल प्रशिक्षण महत्वपूर्ण बना हुआ है, प्रशिक्षण पुनरावृत्तियों की संख्या सीमित है। इसके विपरीत, जैसे-जैसे AI प्रौद्योगिकियां विभिन्न अनुप्रयोगों में तेजी से एकीकृत होती जा रही हैं, अनुमान संचालन रोजाना अरबों बार होने की उम्मीद है। जैसे-जैसे मॉडल जटिलता में बढ़ते हैं, इन अनुप्रयोगों की आर्थिक व्यवहार्यता अनिवार्य रूप से अनुमान लागतों से जुड़ी होती है।

पिछले आठ वर्षों में, AI कंप्यूट के लिए गूगल की मांग दस गुना बढ़कर 100 मिलियन हो गई है। Ironwood जैसी विशिष्ट आर्किटेक्चर के बिना, मूर का नियम (Moore’s Law) की अथक प्रगति भी इस घातीय वृद्धि के साथ तालमेल बिठाने के लिए संघर्ष करेगी।

विशेष रूप से, गूगल की घोषणा “मानसिक मॉडल” पर अपने ध्यान को उजागर करती है जो सरल पैटर्न पहचान के बजाय जटिल तर्क कार्य करने में सक्षम हैं। इससे पता चलता है कि गूगल एक ऐसे भविष्य की कल्पना करता है जहां AI बड़े मॉडलों से परे विस्तारित होता है और उन मॉडलों को शामिल करता है जो समस्याओं को विघटित कर सकते हैं, बहु-चरणीय तर्क कर सकते हैं और मानव जैसे विचार प्रक्रियाओं का अनुकरण कर सकते हैं।

बड़े मॉडलों की अगली पीढ़ी को सशक्त बनाना

गूगल Ironwood को अपने सबसे उन्नत AI मॉडल के लिए आधारभूत अवसंरचना के रूप में रखता है, जिसमें Gemini 2.5 भी शामिल है, जिसमें मूल रूप से अंतर्निहित तर्क क्षमताएं हैं।

गूगल ने हाल ही में Gemini 2.5 Flash भी पेश किया है, जो अपने प्रमुख मॉडल का एक छोटा संस्करण है जिसे विलंबता-संवेदनशील, रोजमर्रा के अनुप्रयोगों के लिए डिज़ाइन किया गया है। Gemini 2.5 Flash शीघ्र के आधार पर अपनी तर्क गहराई को गतिशील रूप से समायोजित कर सकता है।

गूगल ने टेक्स्ट-टू-इमेज, टेक्स्ट-टू-वीडियो और नए अनावरण किए गए टेक्स्ट-टू-म्यूजिक फीचर, Lyria सहित मल्टीमॉडल जेनरेटिव मॉडल के अपने व्यापक सूट का भी प्रदर्शन किया। एक डेमो में दिखाया गया है कि इन उपकरणों को एक संगीत कार्यक्रम के लिए एक पूर्ण प्रचार वीडियो बनाने के लिए कैसे जोड़ा जा सकता है।

Ironwood गूगल की व्यापक AI अवसंरचना रणनीति का सिर्फ एक घटक है। गूगल ने क्लाउड WAN की भी घोषणा की, एक प्रबंधित वाइड एरिया नेटवर्क सेवा जो उद्यमों को गूगल के वैश्विक स्तर के निजी नेटवर्क अवसंरचना तक पहुंचने में सक्षम बनाती है।

इसके अलावा, गूगल AI कार्यभार के लिए अपने सॉफ्टवेयर प्रसाद का विस्तार कर रहा है, जिसमें Pathways भी शामिल है, जो गूगल DeepMind द्वारा विकसित एक मशीन लर्निंग रनटाइम है। Pathways अब ग्राहकों को सैकड़ों TPUs में मॉडल सर्विंग को स्केल करने की अनुमति देता है।

A2A के साथ AI एजेंट सहयोग को बढ़ावा देना

हार्डवेयर प्रगति से परे, गूगल ने बहु-एजेंट सिस्टम के आसपास केंद्रित एक AI पारिस्थितिकी तंत्र के लिए अपनी दृष्टि की भी रूपरेखा तैयार की है। बुद्धिमान एजेंटों के विकास को सुविधाजनक बनाने के लिए, गूगल ने एजेंट-टू-एजेंट (A2A) प्रोटोकॉल पेश किया है, जिसे विभिन्न AI एजेंटों के बीच सुरक्षित और मानकीकृत संचार को सक्षम करने के लिए डिज़ाइन किया गया है।

गूगल का मानना है कि 2025 AI के लिए एक परिवर्तनकारी वर्ष होगा, जिसमें जेनरेटिव AI अनुप्रयोग एकल प्रश्नों का उत्तर देने से लेकर एजेंट सिस्टम के माध्यम से जटिल समस्याओं को हल करने तक विकसित होंगे।

A2A प्रोटोकॉल विभिन्न प्लेटफार्मों और ढांचे में एजेंटों के बीच अंतरसंचालनीयता को सक्षम बनाता है, जो उन्हें एक सामान्य “भाषा” और सुरक्षित संचार चैनल प्रदान करता है। इस प्रोटोकॉल को बुद्धिमान एजेंटों के लिए एक नेटवर्क परत के रूप में देखा जा सकता है, जिसका उद्देश्य जटिल वर्कफ़्लो में एजेंट सहयोग को सरल बनाना है। अलग-अलग जटिलता और अवधि के कार्यों पर एक साथ काम करने के लिए विशिष्ट AI एजेंटों को सक्षम करके, A2A सहयोग के माध्यम से समग्र क्षमताओं को बढ़ाने का प्रयास करता है।

A2A एजेंटों को अंतर्निहित कोड या डेटा संरचनाओं को साझा करने की आवश्यकता के बिना, जानकारी का आदान-प्रदान करने और कार्यों का समन्वय करने के लिए एक मानकीकृत तरीका स्थापित करके काम करता है। यह अधिक मॉड्यूलर और लचीले AI सिस्टम के निर्माण की अनुमति देता है, जहां एजेंटों को आवश्यकतानुसार आसानी से जोड़ा, हटाया या पुन: कॉन्फ़िगर किया जा सकता है।

गूगल ने एक ब्लॉग पोस्ट में MCP और A2A प्रोटोकॉल के बीच तुलना की है।

  • MCP (मॉडल संदर्भ प्रोटोकॉल) उपकरण और संसाधन प्रबंधन के लिए डिज़ाइन किया गया है।
  • यह संरचित इनपुट/आउटपुट के माध्यम से एजेंटों को टूल, API और संसाधनों से जोड़ता है।
  • गूगल ADK MCP टूल का समर्थन करता है, जिससे विभिन्न MCP सर्वर एजेंटों के साथ काम कर सकते हैं।
  • A2A (एजेंट2एजेंट प्रोटोकॉल) एजेंटों के बीच सहयोग के लिए डिज़ाइन किया गया है।
  • यह मेमोरी, संसाधनों या टूल को साझा किए बिना एजेंटों के बीच गतिशील, बहु-मॉडल संचार को सक्षम बनाता है।
  • यह समुदाय द्वारा संचालित एक खुला मानक है।
  • उदाहरणों को गूगल ADK, LangGraph, Crew.AI और अन्य टूल का उपयोग करके देखा जा सकता है।

संक्षेप में, A2A और MCP पूरक हैं: MCP एजेंटों को टूल समर्थन प्रदान करता है, जबकि A2A इन टूल-सुसज्जित एजेंटों को एक दूसरे के साथ संवाद और सहयोग करने में सक्षम बनाता है।

प्रारंभिक भागीदारों को देखते हुए, ऐसा लगता है कि A2A MCP के समान ही ध्यान आकर्षित करने के लिए तैयार है। अग्रणी तकनीक फर्मों और शीर्ष वैश्विक परामर्श और सिस्टम एकीकरण सेवा प्रदाताओं सहित 50 से अधिक कंपनियां प्रारंभिक सहयोग में शामिल हुई हैं।

गूगल प्रोटोकॉल की खुलेपन पर जोर देता है, इसे एजेंटों के सहयोग करने के एक मानक तरीके के रूप में रखता है, चाहे अंतर्निहित प्रौद्योगिकी ढांचा या सेवा प्रदाता कोई भी हो। गूगल ने अपने भागीदारों के सहयोग से प्रोटोकॉल के डिजाइन का मार्गदर्शन करने वाले पांच प्रमुख सिद्धांतों की रूपरेखा तैयार की:

  1. एजेंट क्षमताओं को अपनाएं: A2A एजेंटों को उनकी प्राकृतिक, असंरचित तरीके से सहयोग करने में सक्षम बनाने पर केंद्रित है, भले ही वे मेमोरी, टूल और संदर्भ साझा न करें। प्रोटोकॉल का उद्देश्य सच्चे बहु-एजेंट परिदृश्यों को सक्षम करना है, बजाय इसके कि एजेंटों को केवल “टूल” होने तक सीमित किया जाए।
  2. मौजूदा मानकों पर निर्माण: प्रोटोकॉल HTTP, SSE और JSON-RPC सहित मौजूदा लोकप्रिय मानकों पर आधारित है, जिससे उद्यमों द्वारा आमतौर पर उपयोग किए जाने वाले मौजूदा IT स्टैक के साथ एकीकृत करना आसान हो जाता है।
  3. डिफ़ॉल्ट रूप से सुरक्षित: A2A को एंटरप्राइज़-ग्रेड प्रमाणीकरण और प्राधिकरण का समर्थन करने के लिए डिज़ाइन किया गया है, जो लॉन्च पर OpenAPI की प्रमाणीकरण योजनाओं के समान है।
  4. लंबे समय तक चलने वाले कार्यों का समर्थन करें: A2A को लचीला होने के लिए डिज़ाइन किया गया है, जो त्वरित कार्यों से लेकर गहन शोध तक परिदृश्यों की एक विस्तृत श्रृंखला का समर्थन करता है जिसमें घंटे या दिन भी लग सकते हैं (जब मनुष्य शामिल होते हैं)। पूरी प्रक्रिया के दौरान, A2A उपयोगकर्ताओं को रीयल-टाइम प्रतिक्रिया, सूचनाएं और स्थिति अपडेट प्रदान कर सकता है।
  5. तौर-तरीकों के प्रति उदासीन: एजेंटों की दुनिया पाठ तक सीमित नहीं है, यही कारण है कि A2A को ऑडियो और वीडियो स्ट्रीम सहित विभिन्न तौर-तरीकों का समर्थन करने के लिए डिज़ाइन किया गया है।

गूगल एक उदाहरण प्रदान करता है कि कैसे A2A भर्ती प्रक्रिया को महत्वपूर्ण रूप से सुव्यवस्थित कर सकता है।

एजेंटस्पेस जैसे एकीकृत इंटरफ़ेस में, एक भर्ती प्रबंधक नौकरी की आवश्यकताओं के आधार पर उपयुक्त उम्मीदवारों को खोजने के लिए एक एजेंट को नियुक्त कर सकता है। यह एजेंट उम्मीदवारों को सोर्स करने, साक्षात्कार शेड्यूल करने और यहां तक कि पृष्ठभूमि की जांच में सहायता के लिए अन्य विशेष एजेंटों को नियुक्त करने के लिए विशेष एजेंटों के साथ बातचीत कर सकता है, जिससे विभिन्न प्रणालियों में पूरी भर्ती प्रक्रिया का बुद्धिमान स्वचालन सक्षम हो सके।

मॉडल संदर्भ प्रोटोकॉल (MCP) को अपनाना

A2A विकसित करने के अपने प्रयासों के अलावा, गूगल मॉडल संदर्भ प्रोटोकॉल (MCP) को भी अपना रहा है। OpenAI द्वारा MCP को अपनाने की घोषणा के कुछ हफ़्तों बाद, गूगल ने भी ऐसा ही किया।

गूगल DeepMind के CEO डेमिस हसाबीस ने हाल ही में X पर घोषणा की कि गूगल अपने Gemini मॉडल और SDK में MCP के लिए समर्थन जोड़ेगा। हालांकि, उन्होंने कोई विशेष समयरेखा प्रदान नहीं की।

हसाबीस ने कहा कि “MCP एक उत्कृष्ट प्रोटोकॉल है जो AI एजेंट युग के लिए तेजी से खुला मानक बन रहा है। मैं MCP टीम और उद्योग में अन्य भागीदारों के साथ इस तकनीक को आगे बढ़ाने के लिए काम करने के लिए उत्सुक हूं।”

नवंबर 2024 में अपनी रिलीज के बाद से, MCP ने तेजी से कर्षण प्राप्त किया है, जो भाषा मॉडल को टूल और डेटा से जोड़ने का एक सरल और मानकीकृत तरीका बन गया है।

MCP AI मॉडल को कार्यों को पूरा करने के लिए एंटरप्राइज़ टूल और सॉफ़्टवेयर जैसे स्रोतों से डेटा तक पहुंचने के साथ-साथ सामग्री लाइब्रेरी और एप्लिकेशन विकास वातावरण तक पहुंचने में सक्षम बनाता है। प्रोटोकॉल डेवलपर्स को डेटा स्रोतों और AI-संचालित एप्लिकेशन, जैसे चैटबॉट के बीच द्वि-दिशात्मक कनेक्शन स्थापित करने की अनुमति देता है।

डेवलपर्स MCP सर्वर के माध्यम से डेटा इंटरफेस को उजागर कर सकते हैं और इन सर्वर से कनेक्ट करने के लिए MCP क्लाइंट (जैसे एप्लिकेशन और वर्कफ़्लो) बना सकते हैं। चूंकि Anthropic ने MCP को ओपन-सोर्स किया है, इसलिए कई कंपनियों ने अपने प्लेटफार्मों में MCP समर्थन को एकीकृत किया है।