جاهطلبیهای گوگل به طور فزایندهای شبیه به اپل است، به ویژه در قلمرو مدلهای بزرگ هوش مصنوعی مولد (GenAI). کنفرانس اخیر Google Cloud Next چشمانداز بلندپروازانه گوگل را به نمایش گذاشت. این شامل نوآوریهایی از تراشه TPU v7 Ironwood، طراحی شده برای رقابت با GB200 انویدیا، تا پروتکل Agent2Agent (A2A) با هدف پیشی گرفتن از MCP آنتروپیک، و محیط زمان اجرای Pathways برای استقرار GenAI است.
گوگل همچنین به طور فعال در حال توسعه ابزارهایی مانند ADK و Agentspace برای توانمندسازی توسعه دهندگان در ایجاد عوامل هوش مصنوعی است. Vertex AI، پلتفرم توسعه و استقرار بومی ابری هوش مصنوعی گوگل، محور اصلی این تلاش است. Vertex AI اکنون مجموعه متنوعی از خدمات تولید محتوا را ارائه میدهد که Veo 2 برای ویدیو، Imagen 3 برای تصاویر، Chirp 3 برای صدا و Lyria برای موسیقی را در بر میگیرد. واضح است که Google Cloud در حال موقعیتیابی خود برای ارائه یک مجموعه جامع از برنامههای توسعه مدل بزرگ GenAI به توسعه دهندگان و کاربران است.
در حالی که قابلیت استفاده واقعی از این خدمات و تجربیات هنوز مشخص نیست، گوگل یک اکوسیستم کامل، چندوجهی هوش مصنوعی سختافزاری و نرمافزاری ایجاد کرده است که خود توسعهیافته، منبع بسته و به آسانی در دسترس است.
این رویکرد جامع تصویری از گوگل به عنوان اپل عصر هوش مصنوعی ارائه میدهد.
تراشه Ironwood TPU: رقیبی قدرتمند
رونمایی از تراشه نسل هفتم TPU، Ironwood، به ویژه قابل توجه است.
- هر TPU مجهز به 192 گیگابایت حافظه HBM است، با پهنای باند از 7.2 تا 7.4 ترابایت بر ثانیه، که احتمالاً از فناوری HBM3E استفاده میکند. این در مقایسه با تراشه B200 انویدیا که پهنای باند 8 ترابایت بر ثانیه را ارائه میدهد، مطلوب است.
- هر TPU v7 با خنککننده مایع میتواند به 4.6 پتافلاپس توان محاسباتی FP8 متراکم دست یابد. این مقدار کمی کمتر از 20 پتافلاپس B200 است.
- با این حال، شبکه مرکز داده ژوپیتر گوگل امکان مقیاسبندی را برای پشتیبانی از حداکثر 400000 تراشه یا 43 خوشه TPU v7x فراهم میکند. تخصص گوگل در فناوری سرور به آن امکان میدهد تا بر معیارهای عملکرد تکتراشهای تأکید نکند.
- به طور حیاتی، گوگل Pathways را معرفی کرده است، یک محیط زمان اجرای هوش مصنوعی اختصاصی که انعطافپذیری استقرار مدل GenAI را افزایش میدهد و مزایای آن را در دامنه خوشه سرویس بیشتر تثبیت میکند.
- Ironwood در دو پیکربندی خوشه در دسترس است: 256 تراشه یا 9216 تراشه، متناسب با حجمهای کاری خاص. یک خوشه واحد میتواند به توان محاسباتی 42.5 اگزافلاپس دست یابد. گوگل ادعا میکند که این عملکرد از بزرگترین ابررایانه جهان، El Capitan، 24 برابر بیشتر است. با این حال، این رقم با دقت FP8 اندازهگیری میشود و El Capitan AMD هنوز دادههای دقت FP8 را ارائه نکرده است. گوگل این موضوع را تأیید کرده است، که مقایسه مستقیم را دشوار میکند.
پذیرش یک اکوسیستم GenAI منبع بسته
گوگل در حال دنبال کردن یک اکوسیستم جامع منبع بسته در زمینه GenAI است. در حالی که Gemma منبع باز دارای مزایایی است، گوگل منابع را به سمت راه حلهای منبع بسته خود هدایت میکند.
با افزایش علاقه به Agent AI، گوگل پروتکل A2A را در این کنفرانس اعلام کرد و 50 فروشنده اصلی را برای رقابت با MCP آنتروپیک به خدمت گرفت.
در حالی که OpenAI SDK Agents خود را با ادغام قابلیتهای مدل بزرگ خود، منبع باز کرده است، گوگل در حال گسترش Vertex AI با ADK، Agentspace، AutoML، AIPlatform و Kubeflow است و قابلیتهای مختلف مدل را تزریق میکند.
با این حال، هنگام مقایسه تولید تصویر GPT-4o با ویژگیهای معادل Gemini 2.0 Flash، ممکن است پیشنهادات گوگل، در حالی که بلندپروازانه هستند، فاقد پالایش باشند. ادغام تعداد زیادی مدل، سرویس و ابزار، در حالی که برای رقابت مفید است، ممکن است زودرس به نظر برسد. بازار به مدلهای بزرگ چندوجهی بالغ، به خوبی یکپارچه و خدمات درون مدلی نیاز دارد.
تکرار مدل Gmail، Chrome و Google در هوش مصنوعی
موفقیت گوگل با Gmail، Chrome و رویکرد ‘موشک سه مرحلهای’ به آن اجازه داده است تا بر بازار جهانی فناوری تسلط یابد. این استراتژی به سرعت در زمینه GenAI در حال اجرا است. با این حال، برخلاف حمایت گذشته خود از منبع باز، گوگل به طور فزایندهای از توسعه منبع بسته استقبال میکند.
گوگل به طور مؤثری منبع باز را با تجمیع منابع خود برای ایجاد یک اکوسیستم غالب در یک منطقه خاص، سپس جمعآوری عوارض، به نوعی منبع بسته تبدیل میکند. این رویکرد با انتقادهای فزایندهای از سوی توسعه دهندگان مواجه است.
چارچوبهای یادگیری ماشین منبع باز گوگل، TensorFlow و Jax، به موفقیت جهانی دست یافتهاند. با این حال، محیط زمان اجرای جدید Pathways منبع بسته است، حتی ابزارهای توسعه CUDA انویدیا را نیز جدا میکند.
گوگل در مقابل انویدیا: نبرد برای سلطه هوش مصنوعی
در حالی که انویدیا از هوش مصنوعی فیزیکی دفاع میکند و مدل عمومی ربات انساننمای منبع باز Isaac GR00T N1 را معرفی میکند، Google DeepMind با Gemini Robotics و Gemini Robotics-ER، مبتنی بر Gemini 2.0، وارد بازار میشود.
در حال حاضر، حضور گوگل فقط در بازار رایانههای هوش مصنوعی رومیزی کم است. DGX Spark (قبلاً Project DIGITS) و DGX Station انویدیا، به همراه Mac Studio اپل، چگونه با خدمات ابری گوگل رقابت خواهند کرد؟ این سوال پس از این کنفرانس به یک نقطه کانونی در این صنعت تبدیل شده است.
اتکای اپل به Google Cloud و تراشه M3 Ultra
گزارش شده است که اپل از خوشههای TPU Google Cloud برای آموزش مدلهای بزرگ خود استفاده میکند، حتی به دلیل ملاحظات هزینه، راه حلهای آموزش تراشه انویدیا را نیز کنار گذاشته است! اپل در حالی که با ضعفهای نرمافزاری مواجه است، روی تراشههای سری M خود تمرکز دارد. آخرین Mac Studio مجهز به تراشه M3 Ultra اکنون دارای حداکثر 512 گیگابایت حافظه یکپارچه است. پذیرش اولیه احتمالی فناوری Pathways Google Cloud توسط اپل ممکن است آن را با گوگل همسوکرده باشد.
عامل ضد انحصار
مسئله اساسی حول نگرانیهای ضد انحصار میچرخد. در حال حاضر، مدل کسب و کار اپل به طور منحصر به فردی در موقعیتی قرار دارد که میتواند دادخواستهای ضد انحصار جهانی را هدایت کند، برخلاف مایکروسافت و گوگل که با تجزیه احتمالی مواجه هستند. اندازه گوگل آن را در معرض خطر واگذاری اجباری سیستم عامل اصلی اندروید و مشاغل مرورگر کروم قرار میدهد.
گوگل اخیراً نگهداری از پروژه منبع باز اندروید (AOSP) را متوقف کرده است و تغییر به سمت مدل اپل در عصر هوش مصنوعی را اجتنابناپذیر کرده است. با ظهور پیشرفتهای هوش مصنوعی، تغییر استراتژیک گوگل به طور فزایندهای آشکار میشود.
گسترش در مورد Google’s TPU v7 Ironwood
غواصی عمیق تر در مشخصات TPU v7 Ironwood یک قطعه سخت افزاری مهندسی شده با دقت را نشان میدهد. 192 گیگابایت حافظه با پهنای باند بالا (HBM) یک جزء حیاتی است که امکان دسترسی سریع به دادهها را فراهم میکند که برای آموزش و اجرای مدلهای پیچیده هوش مصنوعی ضروری است. استفاده پیش بینی شده از فناوری HBM3E بر تعهد گوگل به استفاده از پیشرفتهای پیشرفته در فناوری حافظه تأکید میکند. پهنای باند 7.2-7.4 ترابایت بر ثانیه فقط یک عدد چشمگیر نیست. مستقیماً به زمان پردازش سریعتر و توانایی مدیریت مجموعه دادههای بزرگتر و پیچیدهتر تبدیل میشود.
مقایسه با B200 انویدیا با توجه به سلطه انویدیا در بازار GPU اجتنابناپذیر است. در حالی که B200 پهنای باند کمی بالاتر از 8 ترابایت بر ثانیه را ارائه میدهد، معماری کلی سیستم و یکپارچهسازی در اکوسیستم گوگل جایی است که Ironwood قصد دارد خود را متمایز کند.
4.6 پتافلاپس توان محاسباتی FP8 متراکم معیاری از توانایی تراشه در انجام عملیات ممیز شناور است که برای محاسبات هوش مصنوعی اساسی است. تفاوت در مقایسه با 20 پتافلاپس B200 فلسفههای طراحی متمایز را برجسته میکند. گوگل بر مقیاسپذیری و یکپارچهسازی TPUهای خود در زیرساخت مرکز داده خود تأکید میکند، در حالی که انویدیا بر قدرت محاسباتی خام در سطح تراشه تمرکز دارد.
اهمیت شبکه مرکز داده ژوپیتر گوگل
شبکه مرکز داده ژوپیتر گوگل یک دارایی قابل توجه است که امکان اتصال یکپارچه تعداد زیادی تراشه TPU را فراهم میکند. توانایی پشتیبانی از حداکثر 400000 تراشه یا 43 خوشه TPU v7x مقیاسی را که گوگل در آن فعالیت میکند، نشان میدهد. این مقیاسپذیری یک تمایز کلیدی است، زیرا به گوگل اجازه میدهد تا حجمهای کاری را در یک زیرساخت عظیم توزیع کند و عملکرد و کارایی را بهینه کند.
تخصص گوگل در فناوری سرور یک عامل حیاتی در استراتژی هوش مصنوعی آن است. گوگل با اولویت دادن به عملکرد سطح سیستم نسبت به مشخصات تراشه فردی، میتواند از زیرساخت خود برای دستیابی به نتایج برتر استفاده کند. این رویکرد به ویژه در زمینه آموزش مدل هوش مصنوعی در مقیاس بزرگ مرتبط است، جایی که توانایی توزیع محاسبات در یک شبکه از پردازندههای متصل به هم ضروری است.
رونمایی از محیط زمان اجرای هوش مصنوعی Pathways
معرفی Pathways یک حرکت استراتژیک است که انعطافپذیری و کارایی استقرار مدل GenAI را افزایش میدهد. این محیط زمان اجرای هوش مصنوعی اختصاصی به توسعه دهندگان اجازه میدهد تا مدلهای خود را برای زیرساخت گوگل بهینه کنند و از تمام منابع سختافزاری و نرمافزاری موجود به طور کامل بهره ببرند.
Pathways نشاندهنده سرمایهگذاری قابل توجهی در پشته نرمافزاری هوش مصنوعی است که یک پلتفرم یکپارچه برای استقرار و مدیریت مدلهای هوش مصنوعی فراهم میکند. گوگل با سادهسازی فرآیند استقرار، قصد دارد مانع ورود به عرصه برای توسعه دهندگان را کاهش دهد و پذیرش خدمات هوش مصنوعی خود را تشویق کند. این به نوبه خود نوآوری را پیش خواهد برد و یک اکوسیستم پر جنب و جوش در اطراف پلتفرم هوش مصنوعی گوگل ایجاد خواهد کرد.
بینش عمیق تر در مورد استراتژی منبع بسته گوگل
پذیرش استراتژی منبع بسته توسط گوگل در زمینه GenAI یک انتخاب آگاهانه است که نشان دهندهچشم انداز بلند مدت آن برای هوش مصنوعی است. در حالی که Gemma منبع باز یک سهم ارزشمند در جامعه هوش مصنوعی بوده است، گوگل به وضوح راه حلهای منبع بسته خود را در اولویت قرار میدهد و تشخیص میدهد که آنها کنترل و سفارشیسازی بیشتری را ارائه میدهند.
گوگل با تمرکز بر توسعه منبع بسته، میتواند مدلها و زیرساخت هوش مصنوعی خود را برای وظایف خاص بهینه کند و از حداکثر عملکرد و کارایی اطمینان حاصل کند. این رویکرد همچنین به گوگل اجازه میدهد تا از مالکیت معنوی خود محافظت کند و مزیت رقابتی را در چشم انداز هوش مصنوعی به سرعت در حال تحول حفظ کند.
رویکرد منبع بسته بدون منتقدان خود نیست، که استدلال میکنند که نوآوری را خفه میکند و همکاری را محدود میکند. با این حال، گوگل معتقد است که این امر برای اطمینان از کیفیت، امنیت و قابلیت اطمینان خدمات هوش مصنوعی آن ضروری است.
پروتکل A2A و نبرد برای سلطه Agent AI
ظهور Agent AI یک میدان نبرد جدید در صنعت هوش مصنوعی ایجاد کرده است و گوگل مصمم است که در این فضا پیشرو باشد. اعلام پروتکل A2A در کنفرانس Google Cloud Next نشانه روشنی از جاهطلبیهای گوگل است.
گوگل با استخدام 50 فروشنده اصلی برای پشتیبانی از پروتکل A2A، در تلاش است تا یک استاندارد واحد برای ارتباطات Agent AI ایجاد کند. این امر به Agent AI از پلتفرمهای مختلف اجازه میدهد تا به طور یکپارچه با یکدیگر تعامل داشته باشند و یک اکوسیستم هوش مصنوعی متصل و مشارکتی تر ایجاد کنند.
رقابت با MCP آنتروپیک یک جنبه کلیدی از استراتژی Agent AI گوگل است. آنتروپیک یک شرکت تحقیقاتی هوش مصنوعی مورد احترام است و پروتکل MCP آن در صنعت مورد توجه قرار گرفته است. پروتکل A2A گوگل نشان دهنده یک چالش مستقیم برای MCP است و نتیجه این رقابت تأثیر قابل توجهی بر آینده Agent AI خواهد داشت.
Vertex AI: یک پلتفرم جامع توسعه هوش مصنوعی
Vertex AI گوگل یک پلتفرم جامع توسعه هوش مصنوعی است که طیف گستردهای از ابزارها و خدمات را در اختیار توسعه دهندگان قرار میدهد. گوگل با ادغام ADK، Agentspace، AutoML، AIPlatform و Kubeflow در حال ایجاد یک فروشگاه یکجا برای توسعه هوش مصنوعی است.
Vertex AI قصد دارد فرآیند توسعه هوش مصنوعی را ساده کند و ساخت، آموزش و استقرار مدلهای هوش مصنوعی را برای توسعه دهندگان آسان تر کند. این پلتفرم همچنین دسترسی به یک کتابخانه وسیع از مدلهای از پیش آموزش دیده را فراهم میکند و به توسعه دهندگان اجازه میدهد تا به سرعت قابلیتهای هوش مصنوعی را در برنامههای خود بگنجانند.
ادغام قابلیتهای مختلف مدل یک مزیت کلیدی Vertex AI است. گوگل با ارائه طیف متنوعی از مدلها، طیف گستردهای از موارد استفاده، از تشخیص تصویر تا پردازش زبان طبیعی را برآورده میکند. این رویکرد جامع Vertex AI را به یک انتخاب قانع کننده برای توسعه دهندگانی تبدیل میکند که به دنبال یک پلتفرم توسعه هوش مصنوعی همه کاره و قدرتمند هستند.
ادغام مدل گوگل: جاه طلبی در مقابل اجرا
در حالی که جاه طلبی گوگل برای ادغام تعداد زیادی مدل، خدمات و ابزار قابل ستایش است، اجرا ممکن است نیاز به پالایش بیشتری داشته باشد. بازار خواستار مدلهای بزرگ چندوجهی بالغ، به خوبی یکپارچه و خدمات درون مدلی است. پیشنهادات فعلی گوگل، در حالی که امیدوارکننده هستند، ممکن است برای برآورده کردن این انتظارات نیاز به پالایش بیشتری داشته باشند.
ادغام قابلیتهای مختلف هوش مصنوعی یک اقدام پیچیده است و گوگل با این چالش روبرو است که اطمینان حاصل کند که مدلها و خدمات مختلف آن به طور یکپارچه با یکدیگر کار میکنند. این امر نیاز به توجه دقیق به جزئیات و تعهد به بهبود مستمر دارد.
در نهایت، موفقیت تلاشهای ادغام مدل گوگل به توانایی آن در ارائه یک تجربه کاربری بستگی دارد که هم قدرتمند و هم بصری باشد. این امر مستلزم درک عمیق نیازهای کاربر و تمرکز بیوقفه بر کیفیت است.