Ironwood TPU گوگل: جهش کوانتومی در قدرت محاسباتی هوش مصنوعی
چشمانداز هوش مصنوعی (AI) بهطور مداوم در حال تحول است و پیشرفت در سختافزار نقشی اساسی در باز کردن احتمالات جدید ایفا میکند. گوگل، پیشرو در نوآوری هوش مصنوعی، اخیراً از هفتمین نسل واحد پردازش تنسور (TPU) خود با نام رمز Ironwood رونمایی کرده است که نشاندهنده گامی مهم در قابلیتهای محاسباتی هوش مصنوعی است. این شتابدهنده پیشرفته هوش مصنوعی، دارای توانایی محاسباتی است که حتی از سریعترین ابررایانههای جهان نیز با ضریب شگفتانگیز 24 در استقرارهای در مقیاس بزرگ فراتر میرود.
Ironwood که در کنفرانس Google Cloud Next ‘25 معرفی شد، نشاندهنده یک چرخش استراتژیک در سفر ده ساله گوگل در توسعه تراشههای هوش مصنوعی است. برخلاف نسلهای قبلی خود، که در درجه اول برای آموزش هوش مصنوعی و بارهای کاری استنتاج طراحی شده بودند، Ironwood بهطور خاص مهندسی شده است تا در وظایف استنتاج برتری یابد و نویدبخش عصر جدیدی از برنامههای کاربردی مبتنی بر هوش مصنوعی باشد.
به گفته امین وحدت، معاون رئیس و مدیر کل یادگیری ماشین، سیستمها و هوش مصنوعی ابری در گوگل، ‘Ironwood برای پشتیبانی از مرحله بعدی هوش مصنوعی مولد و الزامات محاسباتی و ارتباطی عظیم آن طراحی شده است. این چیزی است که ما آن را ‘عصر استنتاج’ مینامیم، جایی که عوامل هوش مصنوعی بهطور فعال دادهها را بازیابی و تولید میکنند تا بهطور مشترک بینشها و پاسخها را ارائه دهند، نه فقط دادهها.’
رونمایی از قابلیتهای بیسابقه Ironwood
مشخصات فنی Ironwood چیزی کمتر از خارقالعاده نیست. هنگامی که به یک پاد 9216 تراشه مقیاسبندی شود، میتواند 42.5 اگزافلاپ قدرت محاسباتی هوش مصنوعی را ارائه دهد. این رقم، 1.7 اگزافلاپ ارائه شده توسط El Capitan، دارنده عنوان فعلی سریعترین ابررایانه جهان را کماهمیت جلوه میدهد. هر تراشه Ironwood دارای حداکثر ظرفیت محاسباتی 4614 TFLOPs است.
فراتر از قدرت پردازش صرف، Ironwood همچنین دارای بهبودهای قابل توجهی در حافظه و پهنای باند است. هر تراشه مجهز به 192 گیگابایت حافظه با پهنای باند بالا (HBM) است، افزایشی شش برابری در مقایسه با نسل قبلی TPU، Trillium، که سال گذشته منتشر شد. علاوه بر این، پهنای باند حافظه در هر تراشه به 7.2 ترابیت بر ثانیه میرسد که نشاندهنده بهبود 4.5 برابری نسبت به Trillium است.
در عصری که مراکز داده در حال گسترش هستند و مصرف انرژی به یک نگرانی مهم تبدیل شده است، Ironwood نیز به دلیل بهرهوری انرژی خود متمایز است. عملکرد آن در هر وات دو برابر Trillium و تقریباً 30 برابر بیشتر از اولین TPU معرفی شده در سال 2018 است.
تأکید بر بهینهسازی استنتاج، نشاندهنده یک تغییر اساسی در چشمانداز هوش مصنوعی است. در سالهای اخیر، آزمایشگاههای پیشرو هوش مصنوعی عمدتاً بر ساخت مدلهای بنیادی بزرگتر با افزایش تعداد پارامترها متمرکز شدهاند. تمرکز گوگل بر بهینهسازی استنتاج، نشاندهنده گذار به مرحله جدیدی است که بر کارایی استقرار و قابلیتهای استنتاج متمرکز است.
در حالی که آموزش مدل همچنان بسیار مهم است، تعداد تکرارهای آموزش محدود است. در مقابل، از آنجایی که فناوریهای هوش مصنوعی بهطور فزایندهای در برنامههای کاربردی مختلف ادغام میشوند، انتظار میرود عملیات استنتاج روزانه میلیاردها بار رخ دهد. با افزایش پیچیدگی مدلها، دوام اقتصادی این برنامهها بهطور جداییناپذیر با هزینههای استنتاج مرتبط میشود.
در طول هشت سال گذشته، تقاضای گوگل برای محاسبات هوش مصنوعی ده برابر افزایش یافته است و به 100 میلیون شگفتانگیز رسیده است. بدون معماریهای تخصصی مانند Ironwood، حتی پیشرفت بیامان قانون مور نیز برای همگام شدن با این رشد نمایی تلاش خواهد کرد.
شایان ذکر است، اعلامیه گوگل بر تمرکز خود بر ‘مدلهای ذهنی’ تأکید میکند که قادر به انجام وظایف استدلال پیچیده هستند تا تشخیص الگوهای ساده. این نشان میدهد که گوگل آیندهای را پیشبینی میکند که در آن هوش مصنوعی فراتر از مدلهای بزرگتر گسترش مییابد و شامل مدلهایی میشود که میتوانند مشکلات را تجزیه کنند، استدلال چند مرحلهای انجام دهند و از فرآیندهای فکری شبیه انسان تقلید کنند.
تامین انرژی نسل بعدی مدلهای بزرگ
گوگل Ironwood را به عنوان زیرساخت اصلی برای پیشرفتهترین مدلهای هوش مصنوعی خود، از جمله Gemini 2.5، که دارای قابلیتهای استدلال داخلی است، قرار میدهد.
گوگل همچنین اخیراً Gemini 2.5 Flash را معرفی کرده است، یک نوع کوچکتر از مدل پرچمدار خود که برای برنامههای کاربردی حساس به تأخیر و روزمره طراحی شده است. Gemini 2.5 Flash میتواند بهطور پویا عمق استدلال خود را بر اساس پیچیدگی درخواست تنظیم کند.
گوگل همچنین مجموعه جامع مدلهای مولد چندوجهی خود، از جمله متن به تصویر، متن به ویدئو و ویژگی متن به موسیقی تازه رونمایی شده Lyria را به نمایش گذاشت. یک نسخه نمایشی نشان داد که چگونه میتوان این ابزارها را برای تولید یک ویدیوی تبلیغاتی کامل برای یک کنسرت ترکیب کرد.
Ironwood تنها یکی از اجزای استراتژی گستردهتر زیرساخت هوش مصنوعی گوگل است. گوگل همچنین Cloud WAN را اعلام کرد، یک سرویس شبکه گسترده مدیریت شده که به شرکتها امکان میدهد به زیرساخت شبکه خصوصی در مقیاس جهانی گوگل دسترسی داشته باشند.
علاوه بر این، گوگل در حال گسترش پیشنهادات نرمافزاری خود برای بارهای کاری هوش مصنوعی، از جمله Pathways، یک زمان اجرای یادگیری ماشین است که توسط Google DeepMind توسعه یافته است. Pathways اکنون به مشتریان امکان میدهد خدمات مدل را در صدها TPU مقیاسبندی کنند.
تقویت همکاری عامل هوش مصنوعی با A2A
فراتر از پیشرفتهای سختافزاری، گوگل همچنین دیدگاه خود را برای یک اکوسیستم هوش مصنوعی متمرکز بر سیستمهای چند عاملی ترسیم کرده است. برای تسهیل توسعه عوامل هوشمند، گوگل پروتکل Agent-to-Agent (A2A) را معرفی کرده است که برای فعال کردن ارتباطات امن و استاندارد بین عوامل مختلف هوش مصنوعی طراحی شده است.
گوگل معتقد است که سال 2025 سالی متحولکننده برای هوش مصنوعی خواهد بود، با برنامههای کاربردی هوش مصنوعی مولد که از پاسخ دادن به سؤالات واحد به حل مشکلات پیچیده از طریق سیستمهای عامل تکامل مییابند.
پروتکل A2A قابلیت همکاری بین عوامل در پلتفرمها و چارچوبهای مختلف را فعال میکند و به آنها یک ‘زبان’ مشترک و کانالهای ارتباطی امن میدهد. این پروتکل را میتوان به عنوان یک لایه شبکه برای عوامل هوشمند در نظر گرفت که هدف آن سادهسازی همکاری عامل در گردشهای کاری پیچیده است. A2A با فعال کردن عوامل هوش مصنوعی تخصصی برای همکاری در وظایف با پیچیدگی و مدت زمان متفاوت، به دنبال افزایش قابلیتهای کلی از طریق همکاری است.
A2A با ایجاد یک روش استاندارد برای عوامل برای تبادل اطلاعات و هماهنگی اقدامات، بدون نیاز به اشتراکگذاری کد یا ساختارهای داده اساسی، کار میکند. این امر امکان ایجاد سیستمهای هوش مصنوعی مدولارتر و انعطافپذیرتر را فراهم میکند، جایی که عوامل را میتوان به راحتی اضافه، حذف یا پیکربندی مجدد کرد.
گوگل در یک پست وبلاگ مقایسهای بین پروتکلهای MCP و A2A انجام داده است.
- MCP (پروتکل زمینه مدل) برای مدیریت ابزار و منابع طراحی شده است.
- عوامل را از طریق ورودی/خروجی ساختاریافته به ابزارها، APIها و منابع متصل میکند.
- Google ADK از ابزارهای MCP پشتیبانی میکند و به سرورهای مختلف MCP امکان میدهد با عوامل کار کنند.
- A2A (پروتکل Agent2Agent) برای همکاری بین عوامل طراحی شده است.
- ارتباط پویا و چندوجهی بین عوامل را بدون به اشتراک گذاشتن حافظه، منابع یا ابزارها فعال میکند.
- این یک استاندارد باز است که توسط جامعه هدایت میشود.
- نمونهها را میتوان با استفاده از Google ADK، LangGraph، Crew.AI و سایر ابزارها مشاهده کرد.
در اصل، A2A و MCP مکمل یکدیگر هستند: MCP از عوامل با پشتیبانی ابزار پشتیبانی میکند، در حالی که A2A این عوامل مجهز به ابزار را قادر میسازد تا با یکدیگر ارتباط برقرار کرده و همکاری کنند.
با قضاوت بر اساس شرکای اولیه، A2A آماده است تا توجهی مشابه MCP را به خود جلب کند. بیش از 50 شرکت به همکاری اولیه پیوستهاند، از جمله شرکتهای پیشرو فناوری و ارائه دهندگان برتر خدمات مشاوره و ادغام سیستم جهانی.
گوگل بر باز بودن پروتکل تأکید میکند و آن را به عنوان روشی استاندارد برای همکاری عوامل، صرف نظر از چارچوب فناوری زیربنایی یا ارائه دهنده خدمات، قرار میدهد. گوگل پنج اصل کلیدی را که طراحی پروتکل را با همکاری شرکای خود هدایت میکرد، تشریح کرد:
- پذیرش قابلیتهای عامل: A2A بر توانمندسازی عوامل برای همکاری به روش طبیعی و بدون ساختار خود، حتی اگر حافظه، ابزارها و زمینه را به اشتراک نگذارند، تمرکز دارد. هدف پروتکل فعال کردن سناریوهای چند عاملی واقعی است، نه محدود کردن عوامل به صرف ‘ابزار’.
- ساخت بر اساس استانداردهای موجود: پروتکل بر اساس استانداردهای محبوب موجود، از جمله HTTP، SSE و JSON-RPC ساخته شده است و ادغام آن با پشتههای IT موجود که معمولاً توسط شرکتها استفاده میشوند را آسانتر میکند.
- امن بهطور پیشفرض: A2A برای پشتیبانی از احراز هویت و مجوز در سطح سازمانی، قابل مقایسه با طرحهای احراز هویت OpenAPI در هنگام راهاندازی، طراحی شده است.
- پشتیبانی از وظایف طولانی مدت: A2A طوری طراحی شده است که انعطافپذیر باشد و از طیف گستردهای از سناریوها، از وظایف سریع گرفته تا تحقیقات عمیق که ممکن است ساعتها یا حتی روزها طول بکشد (زمانی که انسان درگیر است) پشتیبانی کند. در طول فرآیند، A2A میتواند بازخورد، اعلانها و بهروزرسانیهای وضعیت را در زمان واقعی به کاربران ارائه دهد.
- ناآشنا به مدالیته: دنیای عوامل محدود به متن نیست، به همین دلیل است که A2A برای پشتیبانی از مدالیتههای مختلف، از جمله جریانهای صوتی و تصویری طراحی شده است.
گوگل نمونهای ارائه میدهد از اینکه چگونه A2A میتواند روند استخدام را به میزان قابل توجهی ساده کند.
در یک رابط کاربری یکپارچه مانند Agentspace، یک مدیر استخدام میتواند یک عامل را برای یافتن نامزدهای مناسب بر اساس الزامات شغلی تعیین کند. این عامل میتواند با عوامل تخصصی برای منبعیابی نامزدها، برنامهریزی مصاحبهها و حتی درگیر کردن سایر عوامل تخصصی برای کمک به بررسی سوابق، تعامل داشته باشد و اتوماسیون هوشمند کل فرآیند استخدام را در سیستمهای مختلف فعال کند.
پذیرش پروتکل زمینه مدل (MCP)
گوگل علاوه بر تلاشهای خود در توسعه A2A، پروتکل زمینه مدل (MCP) را نیز پذیرفته است. تنها چند هفته پس از اینکه OpenAI پذیرش MCP را اعلام کرد، گوگل نیز از این روند پیروی کرد.
Demis Hassabis، مدیر عامل Google DeepMind، اخیراً در X اعلام کرد که گوگل از MCP به مدلها و SDKهای Gemini خود پشتیبانی خواهد کرد. با این حال، او جدول زمانی خاصی را ارائه نکرد.
هسابیس اظهار داشت که ‘MCP یک پروتکل عالی است که به سرعت در حال تبدیل شدن به یک استاندارد باز برای عصر عامل هوش مصنوعی است. من مشتاقانه منتظر همکاری با تیم MCP و سایر شرکا در صنعت برای پیشبرد این فناوری هستم.’
از زمان انتشار آن در نوامبر 2024، MCP به سرعت محبوبیت پیدا کرده است و به یک روش ساده و استاندارد برای اتصال مدلهای زبان به ابزارها و دادهها تبدیل شده است.
MCP مدلهای هوش مصنوعی را قادر میسازد تا برای تکمیل وظایف، به دادهها از منابعی مانند ابزارها و نرمافزارهای سازمانی و همچنین دسترسی به کتابخانههای محتوا و محیطهای توسعه برنامه دسترسی داشته باشند. این پروتکل به توسعه دهندگان اجازه میدهد تا ارتباطات دو طرفه بین منابع داده و برنامههای کاربردی مبتنی بر هوش مصنوعی، مانند چتباتها برقرار کنند.
توسعه دهندگان میتوانند رابطهای داده را از طریق سرورهای MCP در معرض دید قرار دهند و مشتریان MCP (مانند برنامهها و گردشهای کاری) را برای اتصال به این سرورها بسازند. از آنجایی که Anthropic MCP را منبع باز کرده است، چندین شرکت پشتیبانی از MCP را در پلتفرمهای خود ادغام کردهاند.