Ironwood TPU گوگل: جهش کوانتومی

Ironwood TPU گوگل: جهش کوانتومی در قدرت محاسباتی هوش مصنوعی

چشم‌انداز هوش مصنوعی (AI) به‌طور مداوم در حال تحول است و پیشرفت در سخت‌افزار نقشی اساسی در باز کردن احتمالات جدید ایفا می‌کند. گوگل، پیشرو در نوآوری هوش مصنوعی، اخیراً از هفتمین نسل واحد پردازش تنسور (TPU) خود با نام رمز Ironwood رونمایی کرده است که نشان‌دهنده گامی مهم در قابلیت‌های محاسباتی هوش مصنوعی است. این شتاب‌دهنده پیشرفته هوش مصنوعی، دارای توانایی محاسباتی است که حتی از سریع‌ترین ابررایانه‌های جهان نیز با ضریب شگفت‌انگیز 24 در استقرارهای در مقیاس بزرگ فراتر می‌رود.

Ironwood که در کنفرانس Google Cloud Next ‘25 معرفی شد، نشان‌دهنده یک چرخش استراتژیک در سفر ده ساله گوگل در توسعه تراشه‌های هوش مصنوعی است. برخلاف نسل‌های قبلی خود، که در درجه اول برای آموزش هوش مصنوعی و بارهای کاری استنتاج طراحی شده بودند، Ironwood به‌طور خاص مهندسی شده است تا در وظایف استنتاج برتری یابد و نویدبخش عصر جدیدی از برنامه‌های کاربردی مبتنی بر هوش مصنوعی باشد.

به گفته امین وحدت، معاون رئیس و مدیر کل یادگیری ماشین، سیستم‌ها و هوش مصنوعی ابری در گوگل، ‘Ironwood برای پشتیبانی از مرحله بعدی هوش مصنوعی مولد و الزامات محاسباتی و ارتباطی عظیم آن طراحی شده است. این چیزی است که ما آن را ‘عصر استنتاج’ می‌نامیم، جایی که عوامل هوش مصنوعی به‌طور فعال داده‌ها را بازیابی و تولید می‌کنند تا به‌طور مشترک بینش‌ها و پاسخ‌ها را ارائه دهند، نه فقط داده‌ها.’

رونمایی از قابلیت‌های بی‌سابقه Ironwood

مشخصات فنی Ironwood چیزی کمتر از خارق‌العاده نیست. هنگامی که به یک پاد 9216 تراشه مقیاس‌بندی شود، می‌تواند 42.5 اگزافلاپ قدرت محاسباتی هوش مصنوعی را ارائه دهد. این رقم، 1.7 اگزافلاپ ارائه شده توسط El Capitan، دارنده عنوان فعلی سریع‌ترین ابررایانه جهان را کم‌اهمیت جلوه می‌دهد. هر تراشه Ironwood دارای حداکثر ظرفیت محاسباتی 4614 TFLOPs است.

فراتر از قدرت پردازش صرف، Ironwood همچنین دارای بهبودهای قابل توجهی در حافظه و پهنای باند است. هر تراشه مجهز به 192 گیگابایت حافظه با پهنای باند بالا (HBM) است، افزایشی شش برابری در مقایسه با نسل قبلی TPU، Trillium، که سال گذشته منتشر شد. علاوه بر این، پهنای باند حافظه در هر تراشه به 7.2 ترابیت بر ثانیه می‌رسد که نشان‌دهنده بهبود 4.5 برابری نسبت به Trillium است.

در عصری که مراکز داده در حال گسترش هستند و مصرف انرژی به یک نگرانی مهم تبدیل شده است، Ironwood نیز به دلیل بهره‌وری انرژی خود متمایز است. عملکرد آن در هر وات دو برابر Trillium و تقریباً 30 برابر بیشتر از اولین TPU معرفی شده در سال 2018 است.

تأکید بر بهینه‌سازی استنتاج، نشان‌دهنده یک تغییر اساسی در چشم‌انداز هوش مصنوعی است. در سال‌های اخیر، آزمایشگاه‌های پیشرو هوش مصنوعی عمدتاً بر ساخت مدل‌های بنیادی بزرگ‌تر با افزایش تعداد پارامترها متمرکز شده‌اند. تمرکز گوگل بر بهینه‌سازی استنتاج، نشان‌دهنده گذار به مرحله جدیدی است که بر کارایی استقرار و قابلیت‌های استنتاج متمرکز است.

در حالی که آموزش مدل همچنان بسیار مهم است، تعداد تکرارهای آموزش محدود است. در مقابل، از آنجایی که فناوری‌های هوش مصنوعی به‌طور فزاینده‌ای در برنامه‌های کاربردی مختلف ادغام می‌شوند، انتظار می‌رود عملیات استنتاج روزانه میلیاردها بار رخ دهد. با افزایش پیچیدگی مدل‌ها، دوام اقتصادی این برنامه‌ها به‌طور جدایی‌ناپذیر با هزینه‌های استنتاج مرتبط می‌شود.

در طول هشت سال گذشته، تقاضای گوگل برای محاسبات هوش مصنوعی ده برابر افزایش یافته است و به 100 میلیون شگفت‌انگیز رسیده است. بدون معماری‌های تخصصی مانند Ironwood، حتی پیشرفت بی‌امان قانون مور نیز برای همگام شدن با این رشد نمایی تلاش خواهد کرد.

شایان ذکر است، اعلامیه گوگل بر تمرکز خود بر ‘مدل‌های ذهنی’ تأکید می‌کند که قادر به انجام وظایف استدلال پیچیده هستند تا تشخیص الگوهای ساده. این نشان می‌دهد که گوگل آینده‌ای را پیش‌بینی می‌کند که در آن هوش مصنوعی فراتر از مدل‌های بزرگ‌تر گسترش می‌یابد و شامل مدل‌هایی می‌شود که می‌توانند مشکلات را تجزیه کنند، استدلال چند مرحله‌ای انجام دهند و از فرآیندهای فکری شبیه انسان تقلید کنند.

تامین انرژی نسل بعدی مدل‌های بزرگ

گوگل Ironwood را به عنوان زیرساخت اصلی برای پیشرفته‌ترین مدل‌های هوش مصنوعی خود، از جمله Gemini 2.5، که دارای قابلیت‌های استدلال داخلی است، قرار می‌دهد.

گوگل همچنین اخیراً Gemini 2.5 Flash را معرفی کرده است، یک نوع کوچکتر از مدل پرچمدار خود که برای برنامه‌های کاربردی حساس به تأخیر و روزمره طراحی شده است. Gemini 2.5 Flash می‌تواند به‌طور پویا عمق استدلال خود را بر اساس پیچیدگی درخواست تنظیم کند.

گوگل همچنین مجموعه جامع مدل‌های مولد چندوجهی خود، از جمله متن به تصویر، متن به ویدئو و ویژگی متن به موسیقی تازه رونمایی شده Lyria را به نمایش گذاشت. یک نسخه نمایشی نشان داد که چگونه می‌توان این ابزارها را برای تولید یک ویدیوی تبلیغاتی کامل برای یک کنسرت ترکیب کرد.

Ironwood تنها یکی از اجزای استراتژی گسترده‌تر زیرساخت هوش مصنوعی گوگل است. گوگل همچنین Cloud WAN را اعلام کرد، یک سرویس شبکه گسترده مدیریت شده که به شرکت‌ها امکان می‌دهد به زیرساخت شبکه خصوصی در مقیاس جهانی گوگل دسترسی داشته باشند.

علاوه بر این، گوگل در حال گسترش پیشنهادات نرم‌افزاری خود برای بارهای کاری هوش مصنوعی، از جمله Pathways، یک زمان اجرای یادگیری ماشین است که توسط Google DeepMind توسعه یافته است. Pathways اکنون به مشتریان امکان می‌دهد خدمات مدل را در صدها TPU مقیاس‌بندی کنند.

تقویت همکاری عامل هوش مصنوعی با A2A

فراتر از پیشرفت‌های سخت‌افزاری، گوگل همچنین دیدگاه خود را برای یک اکوسیستم هوش مصنوعی متمرکز بر سیستم‌های چند عاملی ترسیم کرده است. برای تسهیل توسعه عوامل هوشمند، گوگل پروتکل Agent-to-Agent (A2A) را معرفی کرده است که برای فعال کردن ارتباطات امن و استاندارد بین عوامل مختلف هوش مصنوعی طراحی شده است.

گوگل معتقد است که سال 2025 سالی متحول‌کننده برای هوش مصنوعی خواهد بود، با برنامه‌های کاربردی هوش مصنوعی مولد که از پاسخ دادن به سؤالات واحد به حل مشکلات پیچیده از طریق سیستم‌های عامل تکامل می‌یابند.

پروتکل A2A قابلیت همکاری بین عوامل در پلتفرم‌ها و چارچوب‌های مختلف را فعال می‌کند و به آن‌ها یک ‘زبان’ مشترک و کانال‌های ارتباطی امن می‌دهد. این پروتکل را می‌توان به عنوان یک لایه شبکه برای عوامل هوشمند در نظر گرفت که هدف آن ساده‌سازی همکاری عامل در گردش‌های کاری پیچیده است. A2A با فعال کردن عوامل هوش مصنوعی تخصصی برای همکاری در وظایف با پیچیدگی و مدت زمان متفاوت، به دنبال افزایش قابلیت‌های کلی از طریق همکاری است.

A2A با ایجاد یک روش استاندارد برای عوامل برای تبادل اطلاعات و هماهنگی اقدامات، بدون نیاز به اشتراک‌گذاری کد یا ساختارهای داده اساسی، کار می‌کند. این امر امکان ایجاد سیستم‌های هوش مصنوعی مدولارتر و انعطاف‌پذیرتر را فراهم می‌کند، جایی که عوامل را می‌توان به راحتی اضافه، حذف یا پیکربندی مجدد کرد.

گوگل در یک پست وبلاگ مقایسه‌ای بین پروتکل‌های MCP و A2A انجام داده است.

  • MCP (پروتکل زمینه مدل) برای مدیریت ابزار و منابع طراحی شده است.
    • عوامل را از طریق ورودی/خروجی ساختاریافته به ابزارها، APIها و منابع متصل می‌کند.
    • Google ADK از ابزارهای MCP پشتیبانی می‌کند و به سرورهای مختلف MCP امکان می‌دهد با عوامل کار کنند.
  • A2A (پروتکل Agent2Agent) برای همکاری بین عوامل طراحی شده است.
    • ارتباط پویا و چندوجهی بین عوامل را بدون به اشتراک گذاشتن حافظه، منابع یا ابزارها فعال می‌کند.
    • این یک استاندارد باز است که توسط جامعه هدایت می‌شود.
    • نمونه‌ها را می‌توان با استفاده از Google ADK، LangGraph، Crew.AI و سایر ابزارها مشاهده کرد.

در اصل، A2A و MCP مکمل یکدیگر هستند: MCP از عوامل با پشتیبانی ابزار پشتیبانی می‌کند، در حالی که A2A این عوامل مجهز به ابزار را قادر می‌سازد تا با یکدیگر ارتباط برقرار کرده و همکاری کنند.

با قضاوت بر اساس شرکای اولیه، A2A آماده است تا توجهی مشابه MCP را به خود جلب کند. بیش از 50 شرکت به همکاری اولیه پیوسته‌اند، از جمله شرکت‌های پیشرو فناوری و ارائه دهندگان برتر خدمات مشاوره و ادغام سیستم جهانی.

گوگل بر باز بودن پروتکل تأکید می‌کند و آن را به عنوان روشی استاندارد برای همکاری عوامل، صرف نظر از چارچوب فناوری زیربنایی یا ارائه دهنده خدمات، قرار می‌دهد. گوگل پنج اصل کلیدی را که طراحی پروتکل را با همکاری شرکای خود هدایت می‌کرد، تشریح کرد:

  1. پذیرش قابلیت‌های عامل: A2A بر توانمندسازی عوامل برای همکاری به روش طبیعی و بدون ساختار خود، حتی اگر حافظه، ابزارها و زمینه را به اشتراک نگذارند، تمرکز دارد. هدف پروتکل فعال کردن سناریوهای چند عاملی واقعی است، نه محدود کردن عوامل به صرف ‘ابزار’.
  2. ساخت بر اساس استانداردهای موجود: پروتکل بر اساس استانداردهای محبوب موجود، از جمله HTTP، SSE و JSON-RPC ساخته شده است و ادغام آن با پشته‌های IT موجود که معمولاً توسط شرکت‌ها استفاده می‌شوند را آسان‌تر می‌کند.
  3. امن به‌طور پیش‌فرض: A2A برای پشتیبانی از احراز هویت و مجوز در سطح سازمانی، قابل مقایسه با طرح‌های احراز هویت OpenAPI در هنگام راه‌اندازی، طراحی شده است.
  4. پشتیبانی از وظایف طولانی مدت: A2A طوری طراحی شده است که انعطاف‌پذیر باشد و از طیف گسترده‌ای از سناریوها، از وظایف سریع گرفته تا تحقیقات عمیق که ممکن است ساعت‌ها یا حتی روزها طول بکشد (زمانی که انسان درگیر است) پشتیبانی کند. در طول فرآیند، A2A می‌تواند بازخورد، اعلان‌ها و به‌روزرسانی‌های وضعیت را در زمان واقعی به کاربران ارائه دهد.
  5. ناآشنا به مدالیته: دنیای عوامل محدود به متن نیست، به همین دلیل است که A2A برای پشتیبانی از مدالیته‌های مختلف، از جمله جریان‌های صوتی و تصویری طراحی شده است.

گوگل نمونه‌ای ارائه می‌دهد از اینکه چگونه A2A می‌تواند روند استخدام را به میزان قابل توجهی ساده کند.

در یک رابط کاربری یکپارچه مانند Agentspace، یک مدیر استخدام می‌تواند یک عامل را برای یافتن نامزدهای مناسب بر اساس الزامات شغلی تعیین کند. این عامل می‌تواند با عوامل تخصصی برای منبع‌یابی نامزدها، برنامه‌ریزی مصاحبه‌ها و حتی درگیر کردن سایر عوامل تخصصی برای کمک به بررسی سوابق، تعامل داشته باشد و اتوماسیون هوشمند کل فرآیند استخدام را در سیستم‌های مختلف فعال کند.

پذیرش پروتکل زمینه مدل (MCP)

گوگل علاوه بر تلاش‌های خود در توسعه A2A، پروتکل زمینه مدل (MCP) را نیز پذیرفته است. تنها چند هفته پس از اینکه OpenAI پذیرش MCP را اعلام کرد، گوگل نیز از این روند پیروی کرد.

Demis Hassabis، مدیر عامل Google DeepMind، اخیراً در X اعلام کرد که گوگل از MCP به مدل‌ها و SDKهای Gemini خود پشتیبانی خواهد کرد. با این حال، او جدول زمانی خاصی را ارائه نکرد.

هسابیس اظهار داشت که ‘MCP یک پروتکل عالی است که به سرعت در حال تبدیل شدن به یک استاندارد باز برای عصر عامل هوش مصنوعی است. من مشتاقانه منتظر همکاری با تیم MCP و سایر شرکا در صنعت برای پیشبرد این فناوری هستم.’

از زمان انتشار آن در نوامبر 2024، MCP به سرعت محبوبیت پیدا کرده است و به یک روش ساده و استاندارد برای اتصال مدل‌های زبان به ابزارها و داده‌ها تبدیل شده است.

MCP مدل‌های هوش مصنوعی را قادر می‌سازد تا برای تکمیل وظایف، به داده‌ها از منابعی مانند ابزارها و نرم‌افزارهای سازمانی و همچنین دسترسی به کتابخانه‌های محتوا و محیط‌های توسعه برنامه دسترسی داشته باشند. این پروتکل به توسعه دهندگان اجازه می‌دهد تا ارتباطات دو طرفه بین منابع داده و برنامه‌های کاربردی مبتنی بر هوش مصنوعی، مانند چت‌بات‌ها برقرار کنند.

توسعه دهندگان می‌توانند رابط‌های داده را از طریق سرورهای MCP در معرض دید قرار دهند و مشتریان MCP (مانند برنامه‌ها و گردش‌های کاری) را برای اتصال به این سرورها بسازند. از آنجایی که Anthropic MCP را منبع باز کرده است، چندین شرکت پشتیبانی از MCP را در پلتفرم‌های خود ادغام کرده‌اند.