گوگل کا آئرن ووڈ TPU: AI کمپیوٹ میں ایک بڑا قدم

مصنوعی ذہانت (AI) کا منظرنامہ مسلسل ارتقا پذیر ہے، جس میں ہارڈ ویئر میں ترقی نئی امکانات کو کھولنے میں اہم کردار ادا کر رہی ہے۔ گوگل، AI جدت میں ایک صف اول کی کمپنی ہے، نے حال ہی میں اپنے ساتویں جنریشن کے ٹینسر پروسیسنگ یونٹ (TPU) کی نقاب کشائی کی ہے، جس کا نام آئرن ووڈ ہے، جو AI کمپیوٹ صلاحیتوں میں ایک اہم پیش رفت کی نشاندہی کرتا ہے۔ یہ جدید ترین AI ایکسلریٹر ایک computational prowess کا حامل ہے جو بڑے پیمانے پر تعیناتیوں میں دنیا کے تیز ترین سپر کمپیوٹرز کو بھی 24 کے عنصر سے پیچھے چھوڑ دیتا ہے۔

گوگل کلاؤڈ نیکسٹ ‘25 کانفرنس میں اعلان کردہ، آئرن ووڈ گوگل کے AI چپ ڈویلپمنٹ کے دس سالہ سفر میں ایک اسٹریٹجک محور کی نمائندگی کرتا ہے۔ اپنے پیشروؤں کے برعکس، جو بنیادی طور پر AI ٹریننگ اور انفیرنس ورک لوڈز کے لیے ڈیزائن کیے گئے تھے، آئرن ووڈ خاص طور پر انفیرنس ٹاسکس میں بہترین کارکردگی کا مظاہرہ کرنے کے لیے انجینئر کیا گیا ہے، جو AI سے چلنے والی ایپلی کیشنز کے ایک نئے دور کی نوید سناتا ہے۔

گوگل میں مشین لرننگ، سسٹمز اور کلاؤڈ AI کے نائب صدر اور جنرل منیجر امین وحدت کے مطابق، ‘آئرن ووڈ کو generative AI کے اگلے مرحلے اور اس کی زبردست کمپیوٹ اور مواصلات کی ضروریات کو سپورٹ کرنے کے لیے ڈیزائن کیا گیا ہے۔ اسے ہم ‘انفیرنس ایرا’ کہتے ہیں، جہاں AI ایجنٹس فعال طور پر ڈیٹا بازیافت اور تیار کریں گے تاکہ مشترکہ طور پر بصیرت اور جوابات فراہم کیے جا سکیں، نہ کہ صرف ڈیٹا۔’

آئرن ووڈ کی بے مثال صلاحیتوں کی نقاب کشائی

آئرن ووڈ کی تکنیکی خصوصیات غیر معمولی ہیں۔ جب اسے 9,216 چپس کے پوڈ تک بڑھایا جائے تو یہ AI کمپیوٹ پاور کے 42.5 exaflops فراہم کر سکتا ہے۔ یہ اعداد و شمار El Capitan کی طرف سے پیش کردہ 1.7 exaflops سے بہت کم ہے، جو دنیا کے تیز ترین سپر کمپیوٹر کا موجودہ ٹائٹل ہولڈر ہے۔ ہر انفرادی آئرن ووڈ چپ 4,614 TFLOPs کی چوٹی کمپیوٹ صلاحیت کا حامل ہے۔

صرف پروسیسنگ پاور سے ہٹ کر، آئرن ووڈ میں میموری اور بینڈوڈتھ میں بھی نمایاں بہتری دیکھنے میں آئی ہے۔ ہر چپ 192GB کی ہائی بینڈوڈتھ میموری (HBM) سے لیس ہے، جو پچھلی جنریشن کے TPU، ٹریلیم کے مقابلے میں چھ گنا اضافہ ہے، جسے پچھلے سال جاری کیا گیا تھا۔ مزید برآں، میموری بینڈوڈتھ فی چپ 7.2 terabits/s تک پہنچتی ہے، جو ٹریلیم کے مقابلے میں 4.5 گنا بہتری کی نمائندگی کرتی ہے۔

ایسے دور میں جہاں ڈیٹا سینٹرز پھیل رہے ہیں اور بجلی کی کھپت ایک اہم تشویش بن رہی ہے، آئرن ووڈ اپنی توانائی کی کارکردگی کے لیے بھی نمایاں ہے۔ اس کی کارکردگی فی واٹ ٹریلیم سے دوگنی اور 2018 میں متعارف کرائے گئے پہلے TPU کے مقابلے میں تقریبا 30 گنا زیادہ ہے۔

انفیرنس آپٹیمائزیشن پر زور AI منظر نامے میں ایک اہم تبدیلی کی نشاندہی کرتا ہے۔ حالیہ برسوں میں، معروف AI لیبز نے بنیادی طور پر بڑھتے ہوئے پیرامیٹر گنتی کے ساتھ کبھی نہ ختم ہونے والے بڑے فاؤنڈیشن ماڈلز کی تعمیر پر توجہ مرکوز کی ہے۔ انفیرنس آپٹیمائزیشن پر گوگل کی توجہ تعیناتی کی کارکردگی اور انفیرنس صلاحیتوں پر مبنی ایک نئے مرحلے کی طرف منتقلی کی تجویز پیش کرتی ہے۔

جب کہ ماڈل ٹریننگ اہم ہے، لیکن ٹریننگ کی تکرار کی تعداد محدود ہے۔ اس کے برعکس، جیسا کہ AI ٹیکنالوجیز مختلف ایپلی کیشنز میں تیزی سے مربوط ہوتی جارہی ہیں، انفیرنس آپریشنز کے روزانہ اربوں بار ہونے کی توقع ہے۔ جیسے جیسے ماڈلز پیچیدگی میں بڑھتے ہیں، ان ایپلی کیشنز کی معاشی viability انفیرنس اخراجات سے لازم و ملزوم ہو جاتی ہے۔

گزشتہ آٹھ سالوں میں، AI کمپیوٹ کے لیے گوگل کی مانگ دس گنا بڑھ گئی ہے، جو 100 ملین تک پہنچ گئی ہے۔ آئرن ووڈ جیسے خصوصی فن تعمیر کے بغیر، مور کے قانون کی مسلسل پیش رفت بھی اس exponential ترقی کے ساتھ رفتار برقرار رکھنے کے لیے جدوجہد کرے گی۔

خاص طور پر، گوگل کے اعلان میں ‘ذہنی ماڈلز’ پر اس کی توجہ کو اجاگر کیا گیا ہے جو سادہ پیٹرن کی شناخت کے بجائے پیچیدہ استدلال کے کاموں کو انجام دینے کی صلاحیت رکھتے ہیں۔ اس سے پتہ چلتا ہے کہ گوگل ایک ایسے مستقبل کا تصور کرتا ہے جہاں AI بڑے ماڈلز سے آگے بڑھتا ہے اور ان ماڈلز کو شامل کرتا ہے جو مسائل کو decompose کر سکتے ہیں، کثیر مرحلہ استدلال انجام دے سکتے ہیں اور انسانی جیسی سوچ کے عمل کی تقلید کر سکتے ہیں۔

بڑے ماڈلز کی اگلی جنریشن کو پاور کرنا

گوگل آئرن ووڈ کو اپنے جدید ترین AI ماڈلز کے لیے بنیادی ڈھانچے کے طور پر پیش کرتا ہے، جس میں Gemini 2.5 بھی شامل ہے، جو natively بلٹ ان استدلال صلاحیتوں کا حامل ہے۔

گوگل نے حال ہی میں Gemini 2.5 فلیش بھی متعارف کرایا ہے، جو اس کے فلیگ شپ ماڈل کا ایک چھوٹا قسم ہے جو latency-sensitive، روزمرہ کی ایپلی کیشنز کے لیے ڈیزائن کیا گیا ہے۔ Gemini 2.5 فلیش فوری طور پر اپنی استدلال کی گہرائی کو فوری کی پیچیدگی کی بنیاد پر ایڈجسٹ کر سکتا ہے۔

گوگل نے ملٹی موڈل جنریٹو ماڈلز کا اپنا جامع سویٹ بھی دکھایا، جس میں ٹیکسٹ ٹو امیج، ٹیکسٹ ٹو ویڈیو، اور نیا نقاب کشائی ٹیکسٹ ٹو میوزک فیچر، لیریا شامل ہیں۔ ایک ڈیمو نے واضح کیا کہ کس طرح ان ٹولز کو ایک کنسرٹ کے لیے مکمل پروموشنل ویڈیو تیار کرنے کے لیے ملایا جا سکتا ہے۔

آئرن ووڈ گوگل کی وسیع تر AI انفراسٹرکچر حکمت عملی کا صرف ایک جزو ہے۔ گوگل نے کلاؤڈ WAN کا بھی اعلان کیا ہے، جو ایک منظم وائڈ ایریا نیٹ ورک سروس ہے جو کاروباری اداروں کو گوگل کے عالمی سطح کے نجی نیٹ ورک انفراسٹرکچر تک رسائی حاصل کرنے کے قابل بناتی ہے۔

مزید برآں، گوگل AI ورک لوڈز کے لیے اپنی سافٹ ویئر پیشکشوں کو بڑھا رہا ہے، جس میں پاتھ ویز بھی شامل ہے، جو گوگل ڈیپ مائنڈ کی طرف سے تیار کردہ ایک مشین لرننگ رن ٹائم ہے۔ پاتھ ویز اب صارفین کو سینکڑوں TPUs پر ماڈل سروینگ کو اسکیل کرنے کی اجازت دیتا ہے۔

A2A کے ساتھ AI ایجنٹ تعاون کو فروغ دینا

ہارڈ ویئر میں ترقی کے علاوہ، گوگل نے کثیر ایجنٹ سسٹمز کے گرد مرکوز AI ایکو سسٹم کے لیے اپنے وژن کا بھی خاکہ پیش کیا ہے۔ ذہین ایجنٹوں کی ترقی کو آسان بنانے کے لیے، گوگل نے ایجنٹ ٹو ایجنٹ (A2A) پروٹوکول متعارف کرایا ہے، جو مختلف AI ایجنٹوں کے درمیان محفوظ اور معیاری مواصلات کو فعال کرنے کے لیے ڈیزائن کیا گیا ہے۔

گوگل کا خیال ہے کہ 2025 AI کے لیے ایک تبدیلی کا سال ثابت ہوگا، generative AI ایپلی کیشنز ایک ہی سوالات کے جواب دینے سے لے کر ایجنٹ سسٹمز کے ذریعے پیچیدہ مسائل کو حل کرنے تک تیار ہوں گی۔

A2A پروٹوکول مختلف پلیٹ فارمز اور فریم ورکس میں ایجنٹوں کے درمیان انٹرآپریبلٹی کو فعال کرتا ہے، اور انہیں ایک عام ‘زبان’ اور محفوظ مواصلاتی چینلز فراہم کرتا ہے۔ اس پروٹوکول کو ذہین ایجنٹوں کے لیے ایک نیٹ ورک پرت کے طور پر دیکھا جا سکتا ہے، جس کا مقصد پیچیدہورک فلوز میں ایجنٹ کے تعاون کو آسان بنانا ہے۔ مختلف پیچیدگی اور دورانیے کے کاموں پر ایک ساتھ کام کرنے کے لیے خصوصی AI ایجنٹوں کو فعال کرکے، A2A تعاون کے ذریعے مجموعی صلاحیتوں کو بڑھانے کی کوشش کرتا ہے۔

A2A معلومات کے تبادلے اور کارروائیوں کو مربوط کرنے کے لیے ایجنٹوں کے لیے ایک معیاری طریقہ قائم کرکے کام کرتا ہے، بغیر ان سے بنیادی کوڈ یا ڈیٹا ڈھانچے کا اشتراک کرنے کی ضرورت کے۔ یہ مزید ماڈیولر اور لچکدار AI سسٹمز کی تخلیق کی اجازت دیتا ہے، جہاں ضرورت کے مطابق ایجنٹوں کو آسانی سے شامل، ہٹایا یا دوبارہ ترتیب دیا جا سکتا ہے۔

گوگل نے ایک بلاگ پوسٹ میں MCP اور A2A پروٹوکول کے درمیان موازنہ کیا ہے۔

  • MCP (ماڈل کانٹیکسٹ پروٹوکول) کو ٹول اور وسائل کے انتظام کے لیے ڈیزائن کیا گیا ہے۔
    • یہ ایجنٹوں کو structured ان پٹ/آؤٹ پٹ کے ذریعے ٹولز، APIs اور وسائل سے جوڑتا ہے۔
    • گوگل ADK ایم سی پی ٹولز کو سپورٹ کرتا ہے، جس سے مختلف MCP سرورز ایجنٹوں کے ساتھ کام کرنے کے قابل ہوتے ہیں۔
  • A2A (ایجنٹ2ایجنٹ پروٹوکول) کو ایجنٹوں کے درمیان تعاون کے لیے ڈیزائن کیا گیا ہے۔
    • یہ میموری، وسائل یا ٹولز کو شیئر کیے بغیر ایجنٹوں کے درمیان متحرک، ملٹی موڈل کمیونیکیشن کو فعال کرتا ہے۔
    • یہ کمیونٹی کے زیر قیادت ایک کھلا معیار ہے۔
    • مثالیں گوگل ADK، LangGraph، Crew.AI اور دیگر ٹولز کا استعمال کرتے ہوئے دیکھی جا سکتی ہیں۔

خلاصہ یہ کہ A2A اور MCP تکمیلی ہیں: MCP ایجنٹوں کو ٹول سپورٹ فراہم کرتا ہے، جبکہ A2A ان ٹول سے لیس ایجنٹوں کو ایک دوسرے کے ساتھ بات چیت کرنے اور تعاون کرنے کے قابل بناتا ہے۔

ابتدائی شراکت داروں کو دیکھتے ہوئے، A2A ایم سی پی کی طرح توجہ حاصل کرنے کے لیے تیار نظر آتا ہے۔ 50 سے زیادہ کمپنیاں ابتدائی تعاون میں شامل ہوئی ہیں، جن میں معروف ٹیک فرمیں اور دنیا کی سب سے بڑی مشاورتی اور سسٹم انٹیگریشن سروس فراہم کرنے والی کمپنیاں شامل ہیں۔

گوگل پروٹوکول کے کھلے پن پر زور دیتا ہے، اسے ایجنٹوں کے تعاون کرنے کے ایک معیاری طریقے کے طور پر پیش کرتا ہے، چاہے بنیادی ٹیکنالوجی فریم ورک یا سروس پرووائیڈر کچھ بھی ہو۔ گوگل نے پانچ اہم اصولوں کا خاکہ پیش کیا جنہوں نے اپنے شراکت داروں کے ساتھ تعاون میں پروٹوکول کے ڈیزائن کی رہنمائی کی:

  1. ایجنٹ کی صلاحیتوں کو گلے لگائیں: A2A ایجنٹوں کو ان کے قدرتی، غیر ساختہ طریقے سے تعاون کرنے کے قابل بنانے پر توجہ مرکوز کرتا ہے، یہاں تک کہ اگر وہ میموری، ٹولز اور سیاق و سباق کا اشتراک نہیں کرتے ہیں۔ اس پروٹوکول کا مقصد حقیقی ملٹی ایجنٹ منظرناموں کو فعال کرنا ہے، بجائے اس کے کہ ایجنٹوں کو محض ‘ٹولز’ ہونے تک محدود کیا جائے۔
  2. موجودہ معیارات پر بنائیں: پروٹوکول HTTP, SSE اور JSON-RPC سمیت موجودہ مقبول معیارات پر بناتا ہے، جس سے اداروں کے ذریعہ عام طور پر استعمال ہونے والے موجودہ IT اسٹیکس کے ساتھ انضمام کرنا آسان ہو جاتا ہے۔
  3. ڈیفالٹ کے ذریعہ محفوظ: A2A کو انٹرپرائز گریڈ کی تصدیق اور اجازت کو سپورٹ کرنے کے لیے ڈیزائن کیا گیا ہے، جو لانچ پر OpenAPI کی تصدیق اسکیموں کے مقابلے میں ہے۔
  4. طویل عرصے سے چلنے والے کاموں کی حمایت کریں: A2A کو لچکدار ہونے کے لیے ڈیزائن کیا گیا ہے، جو فوری کاموں سے لے کر گہرائی سے تحقیق تک منظرناموں کی ایک وسیع رینج کی حمایت کرتا ہے جس میں گھنٹے یا دن بھی لگ سکتے ہیں (جب انسان شامل ہوں)۔ اس پورے عمل کے دوران، A2A صارفین کو حقیقی وقت کی رائے، اطلاعات اور اسٹیٹس اپ ڈیٹس فراہم کر سکتا ہے۔
  5. ماڈیلیٹی اگنوسٹک: ایجنٹوں کی دنیا متن تک محدود نہیں ہے، یہی وجہ ہے کہ A2A کو آڈیو اور ویڈیو اسٹریمز سمیت مختلف طریقوں کی حمایت کرنے کے لیے ڈیزائن کیا گیا ہے۔

گوگل ایک مثال فراہم کرتا ہے کہ کس طرح A2A نمایاں طور پر بھرتی کے عمل کو ہموار کر سکتا ہے۔

ایجنٹ اسپیس جیسے unified انٹرفیس میں، ایک hiring manager ملازمت کی ضروریات کی بنیاد پر موزوں امیدواروں کو تلاش کرنے کے لیے ایک ایجنٹ تفویض کر سکتا ہے۔ یہ ایجنٹ امیدواروں کو سورس کرنے، انٹرویوز کا شیڈول کرنے، اور یہاں تک کہ پس منظر کی جانچ میں مددکرنے کے لیے دیگر خصوصی ایجنٹوں کو شامل کرنے کے لیے خصوصی ایجنٹوں کے ساتھ تعامل کر سکتا ہے، جو مختلف سسٹمز میں پورے بھرتی کے عمل کی ذہین آٹومیشن کو فعال کرتا ہے۔

ماڈل کانٹیکسٹ پروٹوکول (MCP) کو قبول کرنا

A2A تیار کرنے کی اپنی کوششوں کے علاوہ، گوگل ماڈل کانٹیکسٹ پروٹوکول (MCP) کو بھی قبول کر رہا ہے۔ OpenAI کی جانب سے MCP کو اپنانے کے اعلان کے چند ہفتوں بعد ہی گوگل نے بھی ایسا ہی کیا۔

گوگل ڈیپ مائنڈ کے سی ای او ڈیمس ہاسابیس نے حال ہی میں X پر اعلان کیا کہ گوگل اپنے Gemini ماڈلز اور SDKs میں MCP کے لیے سپورٹ شامل کرے گا۔ تاہم، انہوں نے کوئی خاص ٹائم لائن فراہم نہیں کی۔

ہاسابیس نے کہا کہ ‘ایم سی پی ایک بہترین پروٹوکول ہے جو تیزی سے AI ایجنٹ دور کے لیے کھلا معیار بن رہا ہے۔ میں MCP ٹیم اور صنعت کے دیگر شراکت داروں کے ساتھ اس ٹیکنالوجی کو آگے بڑھانے کے لیے کام کرنے کا منتظر ہوں۔’

نومبر 2024 میں اپنی ریلیز کے بعد سے، MCP نے تیزی سے توجہ حاصل کی ہے، جو زبان کے ماڈلز کو ٹولز اور ڈیٹا سے جوڑنے کا ایک آسان اور معیاری طریقہ بن گیا ہے۔

MCP AI ماڈلز کو انٹرپرائز ٹولز اور سافٹ ویئر جیسے ذرائع سے ڈیٹا تک رسائی حاصل کرنے کے قابل بناتا ہے تاکہ کام مکمل کیے جا سکیں، ساتھ ہی مواد لائبریریوں اور ایپلیکیشن ڈویلپمنٹ ماحول تک رسائی حاصل کی جا سکے۔ یہ پروٹوکول ڈویلپرز کو ڈیٹا ذرائع اور AI سے چلنے والی ایپلی کیشنز، جیسے چیٹ بوٹس کے درمیان دو طرفہ کنکشن قائم کرنے کی اجازت دیتا ہے۔

ڈویلپرز MCP سرورز کے ذریعے ڈیٹا انٹرفیس کو بے نقاب کر سکتے ہیں اور ان سرورز سے منسلک ہونے کے لیے MCP کلائنٹس (جیسے ایپلی کیشنز اور ورک فلوز) بنا سکتے ہیں۔ چونکہ اینتھروپک نے ایم سی پی کو اوپن سورس کیا ہے، اس لیے متعدد کمپنیوں نے اپنی پلیٹ فارمز میں ایم سی پی سپورٹ کو ضم کیا ہے۔