با رونمایی از واحد پردازش تنسور (TPU) نسل هفتم گوگل، موسوم به Ironwood، چشمانداز پردازش هوش مصنوعی (AI) به طور چشمگیری دگرگون شده است. این شتابدهنده پیشرفته هوش مصنوعی از قابلیتهای محاسباتیای برخوردار است که در استقرارهای بزرگمقیاس، بیش از ۲۴ برابر از سریعترین ابررایانه جهان پیشی میگیرد.
این تراشه جدید، که در کنفرانس Google Cloud Next ‘25 رونمایی شد، نقطه عطفی در استراتژی دهساله گوگل در توسعه تراشههای هوش مصنوعی به شمار میرود. برخلاف نسلهای قبلی خود که عمدتاً برای هر دو بار کاری آموزش و استنتاج هوش مصنوعی طراحی شده بودند، Ironwood به طور خاص برای استنتاج مهندسی شده است که نشاندهنده تغییر استراتژیک به سمت بهینهسازی کارایی استقرار هوش مصنوعی است.
امین وحدت، معاون رئیس و مدیرکل یادگیری ماشینی، سیستمها و هوش مصنوعی ابری گوگل، بر این انتقال تأکید کرد و اظهار داشت: ‘Ironwood برای پشتیبانی از مرحله بعدی هوش مصنوعی مولد و تقاضای محاسباتی و ارتباطی عظیم آن طراحی شده است. این چیزی است که ما آن را ‘عصر استنتاج’ مینامیم، جایی که عوامل هوش مصنوعی به طور فعال دادهها را بازیابی و تولید میکنند تا به طور مشترک بینشها و پاسخها را ارائه دهند، نه صرفاً پردازش دادهها.’
شکستن موانع با 42.5 اگزافلاپس قدرت محاسباتی
مشخصات فنی Ironwood واقعاً چشمگیر است. هنگامی که به یک پاد از 9216 تراشه مقیاسبندی میشود، 42.5 اگزافلاپس قدرت محاسباتی هوش مصنوعی خیرهکننده ارائه میدهد. برای درک این موضوع، این میزان قدرت، ابررایانه فعلی El Capitan، سریعترین ابررایانه جهان را که با 1.7 اگزافلاپس عمل میکند، تحتالشعاع قرار میدهد. هر تراشه Ironwood به طور جداگانه میتواند به حداکثر قابلیت محاسباتی 4614 ترافلاپس دست یابد.
فراتر از قدرت پردازش خام، Ironwood به طور قابل توجهی حافظه و پهنای باند را افزایش میدهد. هر تراشه مجهز به 192 گیگابایت حافظه با پهنای باند بالا (HBM) است، که در مقایسه با نسل قبلی TPU، Trillium که سال گذشته منتشر شد، شش برابر افزایش یافته است. پهنای باند حافظه در هر تراشه به 7.2 ترابیت بر ثانیه میرسد که 4.5 برابر بیشتر از Trillium است.
- قدرت محاسباتی: 42.5 اگزافلاپس (در هر پاد از 9216 تراشه)
- حداکثر محاسبات در هر تراشه: 4614 ترافلاپس
- حافظه: 192 گیگابایت HBM در هر تراشه
- پهنای باند حافظه: 7.2 ترابیت بر ثانیه در هر تراشه
در عصری که مراکز داده در حال گسترش هستند و مصرف انرژی به یک نگرانی رو به رشد تبدیل شده است، Ironwood همچنین پیشرفتهای چشمگیری در بهرهوری انرژی نشان میدهد. این تراشه در مقایسه با Trillium دو برابر عملکرد در هر وات و تقریباً 30 برابر بیشتر از اولین TPU معرفی شده در سال2018 ارائه میدهد.
این بهینهسازی برای استنتاج نشاندهنده یک نقطه عطف مهم در تکامل هوش مصنوعی است. در سالهای اخیر، آزمایشگاههای پیشرو هوش مصنوعی بر توسعه مدلهای پایه به طور فزاینده بزرگ با تعداد پارامترهای رو به گسترش متمرکز شدهاند. تمرکز گوگل بر بهینهسازی استنتاج نشاندهنده حرکت به سمت یک پارادایم جدید متمرکز بر کارایی استقرار و قابلیتهای استنتاج است.
در حالی که آموزش مدل همچنان ضروری است، عملیات استنتاج بسیار مکررتر هستند و روزانه میلیاردها بار با فراگیرتر شدن فناوریهای هوش مصنوعی رخ میدهند. برای کسبوکارهایی که از هوش مصنوعی استفاده میکنند، اقتصاد ذاتاً به هزینههای استنتاج گره خورده است، زیرا مدلها پیچیدهتر میشوند.
تقاضای محاسباتی هوش مصنوعی گوگل در هشت سال گذشته ده برابر افزایش یافته و به 100 میلیون حیرتانگیز رسیده است. بدون معماریهای تخصصی مانند Ironwood، حفظ این مسیر رشد از طریق پیشرفتهای سنتی در قانون مور بهتنهایی غیرممکن خواهد بود.
شایان ذکر است، اطلاعیه گوگل بر تمرکز بر ‘مدلهای استدلال’ تأکید داشت که قادر به اجرای وظایف استنتاج پیچیده هستند تا تشخیص الگوی ساده. این نشاندهنده این باور است که آینده هوش مصنوعی نه تنها در مدلهای بزرگتر، بلکه در مدلهایی نیز نهفته است که قادر به تجزیه مشکلات، درگیر شدن در استدلال چندمرحلهای و تقلید از فرآیندهای فکری شبیه انسان هستند.
قدرت دادن به مدلهای بزرگ نسل بعدی
گوگل Ironwood را به عنوان زیرساخت اساسی برای پیشرفتهترین مدلهای هوش مصنوعی خود، از جمله Gemini 2.5 خود، که از ‘تواناییهای استدلال بومی’ برخوردار است، قرار میدهد.
این شرکت همچنین اخیراً Gemini 2.5 Flash را معرفی کرد، نسخه کوچکتری از مدل پرچمدار خود که برای ‘تنظیم عمق استدلال بر اساس پیچیدگی درخواست’ طراحی شده است. این مدل برای برنامههای روزمره که نیاز به زمان پاسخگویی سریع دارند، طراحی شده است.
گوگل همچنین مجموعه جامع خود از مدلهای تولید چندوجهی، شامل تبدیل متن به تصویر، متن به ویدیو و قابلیت جدید رونمایی شده تبدیل متن به موسیقی خود، Lyria را به نمایش گذاشت. یک نسخه نمایشی نشان داد که چگونه این ابزارها را میتوان برای ایجاد یک ویدیوی تبلیغاتی کامل برای یک کنسرت ترکیب کرد.
Ironwood تنها یکی از اجزای استراتژی گستردهتر زیرساخت هوش مصنوعی گوگل است. این شرکت همچنین Cloud WAN را اعلام کرد، یک سرویس شبکه گسترده مدیریتشده که به شرکتها دسترسی به زیرساخت شبکه خصوصی در مقیاس جهانی گوگل را میدهد.
گوگل همچنین در حال گسترش پیشنهادات نرمافزاری خود برای بارهای کاری هوش مصنوعی، از جمله Pathways است، یک زمان اجرای یادگیری ماشینی که توسط Google DeepMind توسعه یافته است. Pathways اکنون به مشتریان اجازه میدهد تا سرویسدهی مدل را در صدها TPU مقیاسبندی کنند.
معرفی A2A: ترویج اکوسیستمی از همکاری هوشمندانه بین ایجنتها
فراتر از پیشرفتهای سختافزاری، گوگل دیدگاه خود را برای هوش مصنوعی متمرکز بر سیستمهای چندایجنتی ارائه کرد و پروتکلی را برای تسهیل توسعه ایجنتهای هوشمند رونمایی کرد: Agent-to-Agent (A2A). این پروتکل برای ترویج ارتباطات ایمن و استاندارد بین ایجنتهای مختلف هوش مصنوعی طراحی شده است.
گوگل معتقد است که سال 2025 سالی متحول کننده برای هوش مصنوعی خواهد بود، زیرا کاربرد هوش مصنوعی مولد از پاسخ دادن به سوالات منفرد به حل مسائل پیچیده از طریق سیستمهای ایجنت هوشمند تکامل مییابد.
پروتکل A2A قابلیت همکاری در سراسر پلتفرمها و چارچوبها را امکانپذیر میکند و زبانی مشترک و کانالهای ارتباطی ایمن را در اختیار ایجنتها قرار میدهد. این پروتکل را میتوان به عنوان لایه شبکه برای ایجنتهای هوشمند در نظر گرفت که هدف آن سادهسازی همکاری ایجنتها در گردشهای کاری پیچیده است. این پروتکل به ایجنتهای هوش مصنوعی تخصصی این امکان را میدهد تا با هم روی وظایف با پیچیدگی و مدت زمان متفاوت کار کنند و در نهایت از طریق همکاری، قابلیتهای کلی را افزایش دهند.
A2A چگونه کار میکند
گوگل در پست وبلاگ خود مقایسهای بین پروتکلهای MCP و A2A ارائه کرده است:
- MCP (پروتکل زمینه مدل): برای مدیریت ابزار و منابع
- ایجنتها را از طریق ورودی/خروجی ساختاریافته به ابزارها، APIها و منابع متصل میکند.
- Google ADK از ابزارهای MCP پشتیبانی میکند و به سرورهای مختلف MCP اجازه میدهد تا با ایجنتها کار کنند.
- A2A (پروتکل Agent2Agent): برای همکاری بین ایجنتها
- ارتباطات چندوجهی پویا بین ایجنتها را بدون به اشتراک گذاشتن حافظه، منابع یا ابزارها امکانپذیر میکند.
- یک استاندارد باز است که توسط جامعه هدایت میشود.
- نمونهها را میتوان با استفاده از ابزارهایی مانند Google ADK، LangGraph و Crew.AI مشاهده کرد.
در اصل، A2A و MCP مکمل یکدیگر هستند. MCP پشتیبانی ابزار را برای ایجنتها فراهم میکند، در حالی که A2A به این ایجنتهای مجهز اجازه میدهد تا با یکدیگر ارتباط برقرار کرده و همکاری کنند.
فهرست شرکای اعلام شده توسط گوگل نشان میدهد که A2A قرار است توجهی مشابه MCP دریافت کند. این ابتکار در حال حاضر بیش از 50 شرکت را به گروه همکاری اولیه خود جذب کرده است، از جمله شرکتهای فناوری پیشرو و ارائه دهندگان خدمات مشاوره و یکپارچهسازی سیستمهای برتر جهانی.
گوگل بر باز بودن پروتکل تأکید کرد و آن را به عنوان روشی استاندارد برای همکاری ایجنتها، مستقل از چارچوبهای فناوری زیربنایی یا ارائه دهندگان خدمات، قرار داد. این شرکت اظهار داشت که هنگام طراحی پروتکل با شرکای خود، به پنج اصل کلیدی زیر پایبند بوده است:
- پذیرش قابلیتهای ایجنت: A2A بر فعال کردن ایجنتها برای همکاری به روشهای طبیعی و بدون ساختار خود، حتی اگر حافظه، ابزار و زمینه را به اشتراک نگذارند، تمرکز دارد. هدف این است که سناریوهای چندایجنت واقعی را بدون محدود کردن ایجنتها به ‘ابزارهای’ صرف فعال کنیم.
- ساخت بر اساس استانداردهای موجود: این پروتکل بر اساس استانداردهای محبوب موجود، از جمله HTTP، SSE و JSON-RPC ساخته شده است و ادغام آن را با پشتههای IT موجود مورد استفاده شرکتها آسانتر میکند.
- امن از ابتدا: A2A برای پشتیبانی از احراز هویت و مجوز در سطح سازمانی، قابل مقایسه با طرحهای احراز هویت OpenAPI در زمان راهاندازی، طراحی شده است.
- پشتیبانی از وظایف طولانیمدت: A2A با انعطافپذیری طراحی شده است تا از طیف گستردهای از سناریوها، از وظایف سریع گرفته تا تحقیقات عمیق که ممکن است ساعتها یا حتی روزها طول بکشد (زمانی که انسانها درگیر هستند)، پشتیبانی کند. در طول فرآیند، A2A میتواند بازخورد، اعلانها و بهروزرسانیهای وضعیت را در زمان واقعی در اختیار کاربران قرار دهد.
- ناوابسته به روش: دنیای ایجنتها محدود به متن نیست، به همین دلیل است که A2A برای پشتیبانی از روشهای مختلف، از جمله جریانهای صوتی و تصویری، طراحی شده است.
مثال: فرآیند استخدام ساده از طریق A2A
مثالی که توسط گوگل ارائه شده است نشان میدهد که چگونه A2A میتواند به طور قابل توجهی فرآیند استخدام را ساده کند.
در یک رابط یکپارچه مانند Agentspace، یک مدیر استخدام میتواند یک ایجنت را برای یافتن نامزدهای مناسب بر اساس الزامات شغلی تعیین کند. این ایجنت میتواند با ایجنتهای تخصصی در زمینههای خاص برای تکمیل منبعیابی نامزدها تعامل داشته باشد. کاربر همچنین میتواند به ایجنت دستور دهد تا مصاحبهها را برنامهریزی کند و سایر ایجنتهای تخصصی را برای کمک به بررسی پیشینه فعال کند، در نتیجه امکان استخدام مشارکتی کاملاً خودکار و بین سیستمی فراهم میشود.
پذیرش MCP: پیوستن به اکوسیستم پروتکل زمینه مدل
همزمان، گوگل نیز در حال پذیرش MCP است. تنها چند هفته پس از اینکه OpenAI پذیرش پروتکل زمینه مدل (MCP) Anthropic را اعلام کرد، گوگل نیز به دنبال آن، به این ابتکار پیوست.
دمیس هاسابیس، مدیرعامل Google DeepMind در X اعلام کرد که گوگل از MCP به مدلها و SDKهای Gemini خود پشتیبانی اضافه خواهد کرد، اگرچه جدول زمانی خاصی ارائه نشد.
هاسابیس اظهار داشت: ‘MCP یک پروتکل عالی است که به سرعت در حال تبدیل شدن به استاندارد باز برای عصر ایجنتهای هوش مصنوعی است. ما مشتاقانه منتظر همکاری با تیم MCP و سایر شرکا در صنعت برای پیشبرد توسعه این فناوری هستیم.’
از زمان انتشار آن در نوامبر 2024، MCP به سرعت محبوبیت و توجه گستردهای را به دست آورده است و به عنوان یک راه ساده و استاندارد برای اتصال مدلهای زبانی به ابزارها و دادهها ظاهر شده است.
MCP مدلهای هوش مصنوعی را قادر میسازد تا به دادهها از منابع داده مانند ابزارها و نرمافزارهای سازمانی برای تکمیل وظایف و دسترسی به کتابخانههای محتوا و محیطهای توسعه برنامه دسترسی داشته باشند. این پروتکل به توسعه دهندگان اجازه میدهد تا اتصالات دوطرفه بین منابع داده و برنامههای کاربردی مبتنی بر هوش مصنوعی، مانند چتباتها، ایجاد کنند.
توسعه دهندگان میتوانند رابطهای داده را از طریق سرورهای MCP در معرض دید قرار دهند و مشتریان MCP (مانند برنامههای کاربردی و گردشهای کاری) را برای اتصال به این سرورها بسازند. از آنجایی که Anthropic MCP را متنباز کرده است، چندین شرکت پشتیبانی MCP را در پلتفرمهای خود ادغام کردهاند.
تجزیه و تحلیل پیشرفته مفاهیم کلیدی:
برای روشنتر کردن تأثیر و اهمیت اطلاعیههای اخیر گوگل، بیایید عمیقتر به اجزای اصلی: Ironwood، A2A و MCP بپردازیم.
Ironwood: غواصی عمیق در عصر استنتاج
تغییر از تمرکز عمدتاً بر آموزش مدلها به بهینهسازی برای استنتاج یک تحول حیاتی در چشمانداز هوش مصنوعی است. آموزش شامل تغذیه مقادیر زیادی داده به یک مدل برای آموزش دادن به آن برای تشخیص الگوها و پیشبینی است. از سوی دیگر، استنتاج فرآیند استفاده از یک مدل آموزشدیده برای پیشبینی دادههای جدید و دیدهنشده است.
در حالی که آموزش یک رویداد پرمصرف، یکباره (یا غیرمکرر) است، استنتاج به طور مداوم و در مقیاس در برنامههای کاربردی دنیای واقعی اتفاق میافتد. برنامههای کاربردی مانند:
- چتباتها: پاسخ دادن به سوالات کاربر در زمان واقعی.
- سیستمهای پیشنهاد: پیشنهاد محصولات یا محتوا بر اساس ترجیحات کاربر.
- تشخیص تقلب: شناسایی تراکنشهای متقلبانه در حین وقوع.
- تشخیص تصویر: تجزیه و تحلیل تصاویر برای شناسایی اشیاء، افراد یا صحنهها.
این برنامههای کاربردی برای ارائه یک تجربه کاربری یکپارچه، به استنتاج سریع و کارآمد نیاز دارند. Ironwood به طور خاص برای برتری در این وظایف طراحی شده است.
مزایای کلیدی Ironwood برای استنتاج:
- توان عملیاتی بالا: قدرت محاسباتی عظیم (42.5 اگزافلاپس) به Ironwood اجازه میدهد تا حجم زیادی از درخواستهای استنتاج را به طور همزمان مدیریت کند.
- تأخیر کم: حافظه با پهنای باند بالا (HBM) و معماری کارآمد، زمان پردازش هر درخواست استنتاج را به حداقل میرساند.
- بهرهوری انرژی: عملکرد بهبود یافته در هر وات، هزینههای عملیاتی مربوط به اجرای استقرارهای استنتاج در مقیاس بزرگ را کاهش میدهد.
گوگل با بهینهسازی برای استنتاج، به کسبوکارها این امکان را میدهد تا برنامههای کاربردی مبتنی بر هوش مصنوعی را با کارایی و مقرونبهصرفهتر مستقر کنند.
A2A: پایه و اساس هوش مصنوعی مشارکتی
پروتکل Agent-to-Agent (A2A) نشاندهنده یک گام مهم به سوی ایجاد سیستمهای هوش مصنوعی پیچیدهتر و مشارکتی است. در یک سیستم چندایجنتی، چندین ایجنت هوش مصنوعی با هم برای حل یک مسئله پیچیده کار میکنند. هر ایجنت ممکن است مهارتها و دانش تخصصی خود را داشته باشد و آنها با یکدیگر ارتباط برقرار کرده و هماهنگ میکنند تا به یک هدف مشترک دست یابند.
سناریویی را در نظر بگیرید که شامل پشتیبانی خودکار از مشتری است:
- ایجنت 1: پرسش اولیه مشتری را درک میکند و مسئله اصلی را شناسایی میکند.
- ایجنت 2: برای یافتن اطلاعات مرتبط به یک پایگاه دانش دسترسی پیدا میکند.
- ایجنت 3: در صورت لزوم، یک قرار ملاقات پیگیری با یک ایجنت انسانی تعیین میکند.
این ایجنتها باید بتوانند به طور یکپارچه ارتباط برقرار کرده و اطلاعات را به اشتراک بگذارند تا یک تجربه مشتری منسجم ارائه دهند. A2A چارچوبی را برای این نوع همکاری فراهم میکند.
مزایای کلیدی A2A:
- قابلیت همکاری: به ایجنتهای توسعه یافته در پلتفرمها و چارچوبهای مختلف اجازه میدهد تا با یکدیگر ارتباط برقرار کنند.
- استانداردسازی: یک ‘زبان’ مشترک و مجموعه پروتکلها برای ارتباط ایجنت ارائه میدهد.
- امنیت: ارتباطات ایمن بین ایجنتها را تضمین میکند و از دادههای حساس محافظت میکند.
- انعطافپذیری: از طیف گستردهای از روشهای ارتباطی، از جمله متن، صدا و تصویر پشتیبانی میکند.
A2A با ترویج همکاری بین ایجنتهای هوش مصنوعی، توسعه سیستمهای هوش مصنوعی قدرتمندتر و همهکارهتر را ممکن میسازد.
MCP: پر کردن شکاف بین هوش مصنوعی و داده
پروتکل زمینه مدل (MCP) چالش اتصال مدلهای هوش مصنوعی به مقادیر زیادی از دادههای مورد نیاز برای انجام وظایف خود به طور موثر را برطرف میکند. مدلهای هوش مصنوعی برای پیشبینی دقیق و تصمیمگیری آگاهانه به دسترسی به دادههای بیدرنگ از منابع مختلف، مانند پایگاههای داده، APIها و خدمات ابری نیاز دارند.
MCP راهی استاندارد برای دسترسی و تعامل مدلهای هوش مصنوعی با این منابع داده فراهم میکند. این پروتکل مجموعهای از پروتکلها را برای:
- کشف داده: شناسایی منابع داده موجود.
- دسترسی به داده: بازیابی دادهها از منابع داده.
- تبدیل داده: تبدیل دادهها به قالبی که مدل هوش مصنوعی بتواند آن را درک کند.
MCP با ارائه یک رابط استاندارد برای دسترسی به داده، فرآیند ادغام مدلهای هوش مصنوعی با دادههای دنیای واقعی را ساده میکند.
مزایای کلیدی MCP:
- ادغام ساده: اتصال مدلهای هوش مصنوعی به منابع داده را آسانتر میکند.
- استانداردسازی: یک مجموعه مشترک از پروتکلها برای دسترسی به داده ارائه میدهد.
- افزایش کارایی: زمان و تلاش مورد نیاز برای دسترسی و تبدیل دادهها را کاهش میدهد.
- دقت بهبود یافته: مدلهای هوش مصنوعی را قادر میسازد تا به جدیدترین اطلاعات دسترسی داشته باشند و منجر به پیشبینیهای دقیقتر شوند.
MCP با اتصال مدلهای هوش مصنوعی به دادههایی که نیاز دارند، آنها را قادر میسازد تا مؤثرتر عمل کنند و ارزش بیشتری ارائه دهند.