تراشه‌ی Ironwood گوگل، ۲۴ برابر سریع‌تر از ابررایانه

با رونمایی از واحد پردازش تنسور (TPU) نسل هفتم گوگل، موسوم به Ironwood، چشم‌انداز پردازش هوش مصنوعی (AI) به طور چشمگیری دگرگون شده است. این شتاب‌دهنده پیشرفته هوش مصنوعی از قابلیت‌های محاسباتی‌ای برخوردار است که در استقرارهای بزرگ‌مقیاس، بیش از ۲۴ برابر از سریع‌ترین ابررایانه جهان پیشی می‌گیرد.

این تراشه جدید، که در کنفرانس Google Cloud Next ‘25 رونمایی شد، نقطه عطفی در استراتژی ده‌ساله گوگل در توسعه تراشه‌های هوش مصنوعی به شمار می‌رود. برخلاف نسل‌های قبلی خود که عمدتاً برای هر دو بار کاری آموزش و استنتاج هوش مصنوعی طراحی شده بودند، Ironwood به طور خاص برای استنتاج مهندسی شده است که نشان‌دهنده تغییر استراتژیک به سمت بهینه‌سازی کارایی استقرار هوش مصنوعی است.

امین وحدت، معاون رئیس و مدیرکل یادگیری ماشینی، سیستم‌ها و هوش مصنوعی ابری گوگل، بر این انتقال تأکید کرد و اظهار داشت: ‘Ironwood برای پشتیبانی از مرحله بعدی هوش مصنوعی مولد و تقاضای محاسباتی و ارتباطی عظیم آن طراحی شده است. این چیزی است که ما آن را ‘عصر استنتاج’ می‌نامیم، جایی که عوامل هوش مصنوعی به طور فعال داده‌ها را بازیابی و تولید می‌کنند تا به طور مشترک بینش‌ها و پاسخ‌ها را ارائه دهند، نه صرفاً پردازش داده‌ها.’

شکستن موانع با 42.5 اگزافلاپس قدرت محاسباتی

مشخصات فنی Ironwood واقعاً چشمگیر است. هنگامی که به یک پاد از 9216 تراشه مقیاس‌بندی می‌شود، 42.5 اگزافلاپس قدرت محاسباتی هوش مصنوعی خیره‌کننده ارائه می‌دهد. برای درک این موضوع، این میزان قدرت، ابررایانه فعلی El Capitan، سریع‌ترین ابررایانه جهان را که با 1.7 اگزافلاپس عمل می‌کند، تحت‌الشعاع قرار می‌دهد. هر تراشه Ironwood به طور جداگانه می‌تواند به حداکثر قابلیت محاسباتی 4614 ترافلاپس دست یابد.

فراتر از قدرت پردازش خام، Ironwood به طور قابل توجهی حافظه و پهنای باند را افزایش می‌دهد. هر تراشه مجهز به 192 گیگابایت حافظه با پهنای باند بالا (HBM) است، که در مقایسه با نسل قبلی TPU، Trillium که سال گذشته منتشر شد، شش برابر افزایش یافته است. پهنای باند حافظه در هر تراشه به 7.2 ترابیت بر ثانیه می‌رسد که 4.5 برابر بیشتر از Trillium است.

  • قدرت محاسباتی: 42.5 اگزافلاپس (در هر پاد از 9216 تراشه)
  • حداکثر محاسبات در هر تراشه: 4614 ترافلاپس
  • حافظه: 192 گیگابایت HBM در هر تراشه
  • پهنای باند حافظه: 7.2 ترابیت بر ثانیه در هر تراشه

در عصری که مراکز داده در حال گسترش هستند و مصرف انرژی به یک نگرانی رو به رشد تبدیل شده است، Ironwood همچنین پیشرفت‌های چشمگیری در بهره‌وری انرژی نشان می‌دهد. این تراشه در مقایسه با Trillium دو برابر عملکرد در هر وات و تقریباً 30 برابر بیشتر از اولین TPU معرفی شده در سال2018 ارائه می‌دهد.

این بهینه‌سازی برای استنتاج نشان‌دهنده یک نقطه عطف مهم در تکامل هوش مصنوعی است. در سال‌های اخیر، آزمایشگاه‌های پیشرو هوش مصنوعی بر توسعه مدل‌های پایه به طور فزاینده بزرگ با تعداد پارامترهای رو به گسترش متمرکز شده‌اند. تمرکز گوگل بر بهینه‌سازی استنتاج نشان‌دهنده حرکت به سمت یک پارادایم جدید متمرکز بر کارایی استقرار و قابلیت‌های استنتاج است.

در حالی که آموزش مدل همچنان ضروری است، عملیات استنتاج بسیار مکررتر هستند و روزانه میلیاردها بار با فراگیرتر شدن فناوری‌های هوش مصنوعی رخ می‌دهند. برای کسب‌وکارهایی که از هوش مصنوعی استفاده می‌کنند، اقتصاد ذاتاً به هزینه‌های استنتاج گره خورده است، زیرا مدل‌ها پیچیده‌تر می‌شوند.

تقاضای محاسباتی هوش مصنوعی گوگل در هشت سال گذشته ده برابر افزایش یافته و به 100 میلیون حیرت‌انگیز رسیده است. بدون معماری‌های تخصصی مانند Ironwood، حفظ این مسیر رشد از طریق پیشرفت‌های سنتی در قانون مور به‌تنهایی غیرممکن خواهد بود.

شایان ذکر است، اطلاعیه گوگل بر تمرکز بر ‘مدل‌های استدلال’ تأکید داشت که قادر به اجرای وظایف استنتاج پیچیده هستند تا تشخیص الگوی ساده. این نشان‌دهنده این باور است که آینده هوش مصنوعی نه تنها در مدل‌های بزرگ‌تر، بلکه در مدل‌هایی نیز نهفته است که قادر به تجزیه مشکلات، درگیر شدن در استدلال چندمرحله‌ای و تقلید از فرآیندهای فکری شبیه انسان هستند.

قدرت دادن به مدل‌های بزرگ نسل بعدی

گوگل Ironwood را به عنوان زیرساخت اساسی برای پیشرفته‌ترین مدل‌های هوش مصنوعی خود، از جمله Gemini 2.5 خود، که از ‘توانایی‌های استدلال بومی’ برخوردار است، قرار می‌دهد.

این شرکت همچنین اخیراً Gemini 2.5 Flash را معرفی کرد، نسخه کوچک‌تری از مدل پرچمدار خود که برای ‘تنظیم عمق استدلال بر اساس پیچیدگی درخواست’ طراحی شده است. این مدل برای برنامه‌های روزمره که نیاز به زمان پاسخگویی سریع دارند، طراحی شده است.

گوگل همچنین مجموعه جامع خود از مدل‌های تولید چندوجهی، شامل تبدیل متن به تصویر، متن به ویدیو و قابلیت جدید رونمایی شده تبدیل متن به موسیقی خود، Lyria را به نمایش گذاشت. یک نسخه نمایشی نشان داد که چگونه این ابزارها را می‌توان برای ایجاد یک ویدیوی تبلیغاتی کامل برای یک کنسرت ترکیب کرد.

Ironwood تنها یکی از اجزای استراتژی گسترده‌تر زیرساخت هوش مصنوعی گوگل است. این شرکت همچنین Cloud WAN را اعلام کرد، یک سرویس شبکه گسترده مدیریت‌شده که به شرکت‌ها دسترسی به زیرساخت شبکه خصوصی در مقیاس جهانی گوگل را می‌دهد.

گوگل همچنین در حال گسترش پیشنهادات نرم‌افزاری خود برای بارهای کاری هوش مصنوعی، از جمله Pathways است، یک زمان اجرای یادگیری ماشینی که توسط Google DeepMind توسعه یافته است. Pathways اکنون به مشتریان اجازه می‌دهد تا سرویس‌دهی مدل را در صدها TPU مقیاس‌بندی کنند.

معرفی A2A: ترویج اکوسیستمی از همکاری هوشمندانه بین ایجنت‌ها

فراتر از پیشرفت‌های سخت‌افزاری، گوگل دیدگاه خود را برای هوش مصنوعی متمرکز بر سیستم‌های چندایجنتی ارائه کرد و پروتکلی را برای تسهیل توسعه ایجنت‌های هوشمند رونمایی کرد: Agent-to-Agent (A2A). این پروتکل برای ترویج ارتباطات ایمن و استاندارد بین ایجنت‌های مختلف هوش مصنوعی طراحی شده است.

گوگل معتقد است که سال 2025 سالی متحول کننده برای هوش مصنوعی خواهد بود، زیرا کاربرد هوش مصنوعی مولد از پاسخ دادن به سوالات منفرد به حل مسائل پیچیده از طریق سیستم‌های ایجنت هوشمند تکامل می‌یابد.

پروتکل A2A قابلیت همکاری در سراسر پلتفرم‌ها و چارچوب‌ها را امکان‌پذیر می‌کند و زبانی مشترک و کانال‌های ارتباطی ایمن را در اختیار ایجنت‌ها قرار می‌دهد. این پروتکل را می‌توان به عنوان لایه شبکه برای ایجنت‌های هوشمند در نظر گرفت که هدف آن ساده‌سازی همکاری ایجنت‌ها در گردش‌های کاری پیچیده است. این پروتکل به ایجنت‌های هوش مصنوعی تخصصی این امکان را می‌دهد تا با هم روی وظایف با پیچیدگی و مدت زمان متفاوت کار کنند و در نهایت از طریق همکاری، قابلیت‌های کلی را افزایش دهند.

A2A چگونه کار می‌کند

گوگل در پست وبلاگ خود مقایسه‌ای بین پروتکل‌های MCP و A2A ارائه کرده است:

  • MCP (پروتکل زمینه مدل): برای مدیریت ابزار و منابع
    • ایجنت‌ها را از طریق ورودی/خروجی ساختاریافته به ابزارها، APIها و منابع متصل می‌کند.
    • Google ADK از ابزارهای MCP پشتیبانی می‌کند و به سرورهای مختلف MCP اجازه می‌دهد تا با ایجنت‌ها کار کنند.
  • A2A (پروتکل Agent2Agent): برای همکاری بین ایجنت‌ها
    • ارتباطات چندوجهی پویا بین ایجنت‌ها را بدون به اشتراک گذاشتن حافظه، منابع یا ابزارها امکان‌پذیر می‌کند.
    • یک استاندارد باز است که توسط جامعه هدایت می‌شود.
    • نمونه‌ها را می‌توان با استفاده از ابزارهایی مانند Google ADK، LangGraph و Crew.AI مشاهده کرد.

در اصل، A2A و MCP مکمل یکدیگر هستند. MCP پشتیبانی ابزار را برای ایجنت‌ها فراهم می‌کند، در حالی که A2A به این ایجنت‌های مجهز اجازه می‌دهد تا با یکدیگر ارتباط برقرار کرده و همکاری کنند.

فهرست شرکای اعلام شده توسط گوگل نشان می‌دهد که A2A قرار است توجهی مشابه MCP دریافت کند. این ابتکار در حال حاضر بیش از 50 شرکت را به گروه همکاری اولیه خود جذب کرده است، از جمله شرکت‌های فناوری پیشرو و ارائه دهندگان خدمات مشاوره و یکپارچه‌سازی سیستم‌های برتر جهانی.

گوگل بر باز بودن پروتکل تأکید کرد و آن را به عنوان روشی استاندارد برای همکاری ایجنت‌ها، مستقل از چارچوب‌های فناوری زیربنایی یا ارائه دهندگان خدمات، قرار داد. این شرکت اظهار داشت که هنگام طراحی پروتکل با شرکای خود، به پنج اصل کلیدی زیر پایبند بوده است:

  1. پذیرش قابلیت‌های ایجنت: A2A بر فعال کردن ایجنت‌ها برای همکاری به روش‌های طبیعی و بدون ساختار خود، حتی اگر حافظه، ابزار و زمینه را به اشتراک نگذارند، تمرکز دارد. هدف این است که سناریوهای چندایجنت واقعی را بدون محدود کردن ایجنت‌ها به ‘ابزارهای’ صرف فعال کنیم.
  2. ساخت بر اساس استانداردهای موجود: این پروتکل بر اساس استانداردهای محبوب موجود، از جمله HTTP، SSE و JSON-RPC ساخته شده است و ادغام آن را با پشته‌های IT موجود مورد استفاده شرکت‌ها آسان‌تر می‌کند.
  3. امن از ابتدا: A2A برای پشتیبانی از احراز هویت و مجوز در سطح سازمانی، قابل مقایسه با طرح‌های احراز هویت OpenAPI در زمان راه‌اندازی، طراحی شده است.
  4. پشتیبانی از وظایف طولانی‌مدت: A2A با انعطاف‌پذیری طراحی شده است تا از طیف گسترده‌ای از سناریوها، از وظایف سریع گرفته تا تحقیقات عمیق که ممکن است ساعت‌ها یا حتی روزها طول بکشد (زمانی که انسان‌ها درگیر هستند)، پشتیبانی کند. در طول فرآیند، A2A می‌تواند بازخورد، اعلان‌ها و به‌روزرسانی‌های وضعیت را در زمان واقعی در اختیار کاربران قرار دهد.
  5. ناوابسته به روش: دنیای ایجنت‌ها محدود به متن نیست، به همین دلیل است که A2A برای پشتیبانی از روش‌های مختلف، از جمله جریان‌های صوتی و تصویری، طراحی شده است.

مثال: فرآیند استخدام ساده از طریق A2A

مثالی که توسط گوگل ارائه شده است نشان می‌دهد که چگونه A2A می‌تواند به طور قابل توجهی فرآیند استخدام را ساده کند.

در یک رابط یکپارچه مانند Agentspace، یک مدیر استخدام می‌تواند یک ایجنت را برای یافتن نامزدهای مناسب بر اساس الزامات شغلی تعیین کند. این ایجنت می‌تواند با ایجنت‌های تخصصی در زمینه‌های خاص برای تکمیل منبع‌یابی نامزدها تعامل داشته باشد. کاربر همچنین می‌تواند به ایجنت دستور دهد تا مصاحبه‌ها را برنامه‌ریزی کند و سایر ایجنت‌های تخصصی را برای کمک به بررسی پیشینه فعال کند، در نتیجه امکان استخدام مشارکتی کاملاً خودکار و بین سیستمی فراهم می‌شود.

پذیرش MCP: پیوستن به اکوسیستم پروتکل زمینه مدل

همزمان، گوگل نیز در حال پذیرش MCP است. تنها چند هفته پس از اینکه OpenAI پذیرش پروتکل زمینه مدل (MCP) Anthropic را اعلام کرد، گوگل نیز به دنبال آن، به این ابتکار پیوست.

دمیس هاسابیس، مدیرعامل Google DeepMind در X اعلام کرد که گوگل از MCP به مدل‌ها و SDKهای Gemini خود پشتیبانی اضافه خواهد کرد، اگرچه جدول زمانی خاصی ارائه نشد.

هاسابیس اظهار داشت: ‘MCP یک پروتکل عالی است که به سرعت در حال تبدیل شدن به استاندارد باز برای عصر ایجنت‌های هوش مصنوعی است. ما مشتاقانه منتظر همکاری با تیم MCP و سایر شرکا در صنعت برای پیشبرد توسعه این فناوری هستیم.’

از زمان انتشار آن در نوامبر 2024، MCP به سرعت محبوبیت و توجه گسترده‌ای را به دست آورده است و به عنوان یک راه ساده و استاندارد برای اتصال مدل‌های زبانی به ابزارها و داده‌ها ظاهر شده است.

MCP مدل‌های هوش مصنوعی را قادر می‌سازد تا به داده‌ها از منابع داده مانند ابزارها و نرم‌افزارهای سازمانی برای تکمیل وظایف و دسترسی به کتابخانه‌های محتوا و محیط‌های توسعه برنامه دسترسی داشته باشند. این پروتکل به توسعه دهندگان اجازه می‌دهد تا اتصالات دوطرفه بین منابع داده و برنامه‌های کاربردی مبتنی بر هوش مصنوعی، مانند چت‌بات‌ها، ایجاد کنند.

توسعه دهندگان می‌توانند رابط‌های داده را از طریق سرورهای MCP در معرض دید قرار دهند و مشتریان MCP (مانند برنامه‌های کاربردی و گردش‌های کاری) را برای اتصال به این سرورها بسازند. از آنجایی که Anthropic MCP را متن‌باز کرده است، چندین شرکت پشتیبانی MCP را در پلتفرم‌های خود ادغام کرده‌اند.

تجزیه و تحلیل پیشرفته مفاهیم کلیدی:

برای روشن‌تر کردن تأثیر و اهمیت اطلاعیه‌های اخیر گوگل، بیایید عمیق‌تر به اجزای اصلی: Ironwood، A2A و MCP بپردازیم.

Ironwood: غواصی عمیق در عصر استنتاج

تغییر از تمرکز عمدتاً بر آموزش مدل‌ها به بهینه‌سازی برای استنتاج یک تحول حیاتی در چشم‌انداز هوش مصنوعی است. آموزش شامل تغذیه مقادیر زیادی داده به یک مدل برای آموزش دادن به آن برای تشخیص الگوها و پیش‌بینی است. از سوی دیگر، استنتاج فرآیند استفاده از یک مدل آموزش‌دیده برای پیش‌بینی داده‌های جدید و دیده‌نشده است.

در حالی که آموزش یک رویداد پرمصرف، یک‌باره (یا غیرمکرر) است، استنتاج به طور مداوم و در مقیاس در برنامه‌های کاربردی دنیای واقعی اتفاق می‌افتد. برنامه‌های کاربردی مانند:

  • چت‌بات‌ها: پاسخ دادن به سوالات کاربر در زمان واقعی.
  • سیستم‌های پیشنهاد: پیشنهاد محصولات یا محتوا بر اساس ترجیحات کاربر.
  • تشخیص تقلب: شناسایی تراکنش‌های متقلبانه در حین وقوع.
  • تشخیص تصویر: تجزیه و تحلیل تصاویر برای شناسایی اشیاء، افراد یا صحنه‌ها.

این برنامه‌های کاربردی برای ارائه یک تجربه کاربری یکپارچه، به استنتاج سریع و کارآمد نیاز دارند. Ironwood به طور خاص برای برتری در این وظایف طراحی شده است.

مزایای کلیدی Ironwood برای استنتاج:

  • توان عملیاتی بالا: قدرت محاسباتی عظیم (42.5 اگزافلاپس) به Ironwood اجازه می‌دهد تا حجم زیادی از درخواست‌های استنتاج را به طور همزمان مدیریت کند.
  • تأخیر کم: حافظه با پهنای باند بالا (HBM) و معماری کارآمد، زمان پردازش هر درخواست استنتاج را به حداقل می‌رساند.
  • بهره‌وری انرژی: عملکرد بهبود یافته در هر وات، هزینه‌های عملیاتی مربوط به اجرای استقرارهای استنتاج در مقیاس بزرگ را کاهش می‌دهد.

گوگل با بهینه‌سازی برای استنتاج، به کسب‌وکارها این امکان را می‌دهد تا برنامه‌های کاربردی مبتنی بر هوش مصنوعی را با کارایی و مقرون‌به‌صرفه‌تر مستقر کنند.

A2A: پایه و اساس هوش مصنوعی مشارکتی

پروتکل Agent-to-Agent (A2A) نشان‌دهنده یک گام مهم به سوی ایجاد سیستم‌های هوش مصنوعی پیچیده‌تر و مشارکتی است. در یک سیستم چندایجنتی، چندین ایجنت هوش مصنوعی با هم برای حل یک مسئله پیچیده کار می‌کنند. هر ایجنت ممکن است مهارت‌ها و دانش تخصصی خود را داشته باشد و آنها با یکدیگر ارتباط برقرار کرده و هماهنگ می‌کنند تا به یک هدف مشترک دست یابند.

سناریویی را در نظر بگیرید که شامل پشتیبانی خودکار از مشتری است:

  • ایجنت 1: پرسش اولیه مشتری را درک می‌کند و مسئله اصلی را شناسایی می‌کند.
  • ایجنت 2: برای یافتن اطلاعات مرتبط به یک پایگاه دانش دسترسی پیدا می‌کند.
  • ایجنت 3: در صورت لزوم، یک قرار ملاقات پیگیری با یک ایجنت انسانی تعیین می‌کند.

این ایجنت‌ها باید بتوانند به طور یکپارچه ارتباط برقرار کرده و اطلاعات را به اشتراک بگذارند تا یک تجربه مشتری منسجم ارائه دهند. A2A چارچوبی را برای این نوع همکاری فراهم می‌کند.

مزایای کلیدی A2A:

  • قابلیت همکاری: به ایجنت‌های توسعه یافته در پلتفرم‌ها و چارچوب‌های مختلف اجازه می‌دهد تا با یکدیگر ارتباط برقرار کنند.
  • استانداردسازی: یک ‘زبان’ مشترک و مجموعه پروتکل‌ها برای ارتباط ایجنت ارائه می‌دهد.
  • امنیت: ارتباطات ایمن بین ایجنت‌ها را تضمین می‌کند و از داده‌های حساس محافظت می‌کند.
  • انعطاف‌پذیری: از طیف گسترده‌ای از روش‌های ارتباطی، از جمله متن، صدا و تصویر پشتیبانی می‌کند.

A2A با ترویج همکاری بین ایجنت‌های هوش مصنوعی، توسعه سیستم‌های هوش مصنوعی قدرتمندتر و همه‌کاره‌تر را ممکن می‌سازد.

MCP: پر کردن شکاف بین هوش مصنوعی و داده

پروتکل زمینه مدل (MCP) چالش اتصال مدل‌های هوش مصنوعی به مقادیر زیادی از داده‌های مورد نیاز برای انجام وظایف خود به طور موثر را برطرف می‌کند. مدل‌های هوش مصنوعی برای پیش‌بینی دقیق و تصمیم‌گیری آگاهانه به دسترسی به داده‌های بی‌درنگ از منابع مختلف، مانند پایگاه‌های داده، APIها و خدمات ابری نیاز دارند.

MCP راهی استاندارد برای دسترسی و تعامل مدل‌های هوش مصنوعی با این منابع داده فراهم می‌کند. این پروتکل مجموعه‌ای از پروتکل‌ها را برای:

  • کشف داده: شناسایی منابع داده موجود.
  • دسترسی به داده: بازیابی داده‌ها از منابع داده.
  • تبدیل داده: تبدیل داده‌ها به قالبی که مدل هوش مصنوعی بتواند آن را درک کند.

MCP با ارائه یک رابط استاندارد برای دسترسی به داده، فرآیند ادغام مدل‌های هوش مصنوعی با داده‌های دنیای واقعی را ساده می‌کند.

مزایای کلیدی MCP:

  • ادغام ساده: اتصال مدل‌های هوش مصنوعی به منابع داده را آسان‌تر می‌کند.
  • استانداردسازی: یک مجموعه مشترک از پروتکل‌ها برای دسترسی به داده ارائه می‌دهد.
  • افزایش کارایی: زمان و تلاش مورد نیاز برای دسترسی و تبدیل داده‌ها را کاهش می‌دهد.
  • دقت بهبود یافته: مدل‌های هوش مصنوعی را قادر می‌سازد تا به جدیدترین اطلاعات دسترسی داشته باشند و منجر به پیش‌بینی‌های دقیق‌تر شوند.

MCP با اتصال مدل‌های هوش مصنوعی به داده‌هایی که نیاز دارند، آنها را قادر می‌سازد تا مؤثرتر عمل کنند و ارزش بیشتری ارائه دهند.