جاه طلبی های هوش مصنوعی گوگل: بازتاب استراتژی اپل

جاه‌طلبی‌های گوگل به طور فزاینده‌ای شبیه به اپل است، به ویژه در قلمرو مدل‌های بزرگ هوش مصنوعی مولد (GenAI). کنفرانس اخیر Google Cloud Next چشم‌انداز بلندپروازانه گوگل را به نمایش گذاشت. این شامل نوآوری‌هایی از تراشه TPU v7 Ironwood، طراحی شده برای رقابت با GB200 انویدیا، تا پروتکل Agent2Agent (A2A) با هدف پیشی گرفتن از MCP آنتروپیک، و محیط زمان اجرای Pathways برای استقرار GenAI است.

گوگل همچنین به طور فعال در حال توسعه ابزارهایی مانند ADK و Agentspace برای توانمندسازی توسعه دهندگان در ایجاد عوامل هوش مصنوعی است. Vertex AI، پلتفرم توسعه و استقرار بومی ابری هوش مصنوعی گوگل، محور اصلی این تلاش است. Vertex AI اکنون مجموعه متنوعی از خدمات تولید محتوا را ارائه می‌دهد که Veo 2 برای ویدیو، Imagen 3 برای تصاویر، Chirp 3 برای صدا و Lyria برای موسیقی را در بر می‌گیرد. واضح است که Google Cloud در حال موقعیت‌یابی خود برای ارائه یک مجموعه جامع از برنامه‌های توسعه مدل بزرگ GenAI به توسعه دهندگان و کاربران است.

در حالی که قابلیت استفاده واقعی از این خدمات و تجربیات هنوز مشخص نیست، گوگل یک اکوسیستم کامل، چندوجهی هوش مصنوعی سخت‌افزاری و نرم‌افزاری ایجاد کرده است که خود توسعه‌یافته، منبع بسته و به آسانی در دسترس است.

این رویکرد جامع تصویری از گوگل به عنوان اپل عصر هوش مصنوعی ارائه می‌دهد.

تراشه Ironwood TPU: رقیبی قدرتمند

رونمایی از تراشه نسل هفتم TPU، Ironwood، به ویژه قابل توجه است.

  • هر TPU مجهز به 192 گیگابایت حافظه HBM است، با پهنای باند از 7.2 تا 7.4 ترابایت بر ثانیه، که احتمالاً از فناوری HBM3E استفاده می‌کند. این در مقایسه با تراشه B200 انویدیا که پهنای باند 8 ترابایت بر ثانیه را ارائه می‌دهد، مطلوب است.
  • هر TPU v7 با خنک‌کننده مایع می‌تواند به 4.6 پتافلاپس توان محاسباتی FP8 متراکم دست یابد. این مقدار کمی کمتر از 20 پتافلاپس B200 است.
  • با این حال، شبکه مرکز داده ژوپیتر گوگل امکان مقیاس‌بندی را برای پشتیبانی از حداکثر 400000 تراشه یا 43 خوشه TPU v7x فراهم می‌کند. تخصص گوگل در فناوری سرور به آن امکان می‌دهد تا بر معیارهای عملکرد تک‌تراشه‌ای تأکید نکند.
  • به طور حیاتی، گوگل Pathways را معرفی کرده است، یک محیط زمان اجرای هوش مصنوعی اختصاصی که انعطاف‌پذیری استقرار مدل GenAI را افزایش می‌دهد و مزایای آن را در دامنه خوشه سرویس بیشتر تثبیت می‌کند.
  • Ironwood در دو پیکربندی خوشه در دسترس است: 256 تراشه یا 9216 تراشه، متناسب با حجم‌های کاری خاص. یک خوشه واحد می‌تواند به توان محاسباتی 42.5 اگزافلاپس دست یابد. گوگل ادعا می‌کند که این عملکرد از بزرگترین ابررایانه جهان، El Capitan، 24 برابر بیشتر است. با این حال، این رقم با دقت FP8 اندازه‌گیری می‌شود و El Capitan AMD هنوز داده‌های دقت FP8 را ارائه نکرده است. گوگل این موضوع را تأیید کرده است، که مقایسه مستقیم را دشوار می‌کند.

پذیرش یک اکوسیستم GenAI منبع بسته

گوگل در حال دنبال کردن یک اکوسیستم جامع منبع بسته در زمینه GenAI است. در حالی که Gemma منبع باز دارای مزایایی است، گوگل منابع را به سمت راه حل‌های منبع بسته خود هدایت می‌کند.

با افزایش علاقه به Agent AI، گوگل پروتکل A2A را در این کنفرانس اعلام کرد و 50 فروشنده اصلی را برای رقابت با MCP آنتروپیک به خدمت گرفت.

در حالی که OpenAI SDK Agents خود را با ادغام قابلیت‌های مدل بزرگ خود، منبع باز کرده است، گوگل در حال گسترش Vertex AI با ADK، Agentspace، AutoML، AIPlatform و Kubeflow است و قابلیت‌های مختلف مدل را تزریق می‌کند.

با این حال، هنگام مقایسه تولید تصویر GPT-4o با ویژگی‌های معادل Gemini 2.0 Flash، ممکن است پیشنهادات گوگل، در حالی که بلندپروازانه هستند، فاقد پالایش باشند. ادغام تعداد زیادی مدل، سرویس و ابزار، در حالی که برای رقابت مفید است، ممکن است زودرس به نظر برسد. بازار به مدل‌های بزرگ چندوجهی بالغ، به خوبی یکپارچه و خدمات درون مدلی نیاز دارد.

تکرار مدل Gmail، Chrome و Google در هوش مصنوعی

موفقیت گوگل با Gmail، Chrome و رویکرد ‘موشک سه مرحله‌ای’ به آن اجازه داده است تا بر بازار جهانی فناوری تسلط یابد. این استراتژی به سرعت در زمینه GenAI در حال اجرا است. با این حال، برخلاف حمایت گذشته خود از منبع باز، گوگل به طور فزاینده‌ای از توسعه منبع بسته استقبال می‌کند.

گوگل به طور مؤثری منبع باز را با تجمیع منابع خود برای ایجاد یک اکوسیستم غالب در یک منطقه خاص، سپس جمع‌آوری عوارض، به نوعی منبع بسته تبدیل می‌کند. این رویکرد با انتقادهای فزاینده‌ای از سوی توسعه دهندگان مواجه است.

چارچوب‌های یادگیری ماشین منبع باز گوگل، TensorFlow و Jax، به موفقیت جهانی دست یافته‌اند. با این حال، محیط زمان اجرای جدید Pathways منبع بسته است، حتی ابزارهای توسعه CUDA انویدیا را نیز جدا می‌کند.

گوگل در مقابل انویدیا: نبرد برای سلطه هوش مصنوعی

در حالی که انویدیا از هوش مصنوعی فیزیکی دفاع می‌کند و مدل عمومی ربات انسان‌نمای منبع باز Isaac GR00T N1 را معرفی می‌کند، Google DeepMind با Gemini Robotics و Gemini Robotics-ER، مبتنی بر Gemini 2.0، وارد بازار می‌شود.

در حال حاضر، حضور گوگل فقط در بازار رایانه‌های هوش مصنوعی رومیزی کم است. DGX Spark (قبلاً Project DIGITS) و DGX Station انویدیا، به همراه Mac Studio اپل، چگونه با خدمات ابری گوگل رقابت خواهند کرد؟ این سوال پس از این کنفرانس به یک نقطه کانونی در این صنعت تبدیل شده است.

اتکای اپل به Google Cloud و تراشه M3 Ultra

گزارش شده است که اپل از خوشه‌های TPU Google Cloud برای آموزش مدل‌های بزرگ خود استفاده می‌کند، حتی به دلیل ملاحظات هزینه، راه حل‌های آموزش تراشه انویدیا را نیز کنار گذاشته است! اپل در حالی که با ضعف‌های نرم‌افزاری مواجه است، روی تراشه‌های سری M خود تمرکز دارد. آخرین Mac Studio مجهز به تراشه M3 Ultra اکنون دارای حداکثر 512 گیگابایت حافظه یکپارچه است. پذیرش اولیه احتمالی فناوری Pathways Google Cloud توسط اپل ممکن است آن را با گوگل همسوکرده باشد.

عامل ضد انحصار

مسئله اساسی حول نگرانی‌های ضد انحصار می‌چرخد. در حال حاضر، مدل کسب و کار اپل به طور منحصر به فردی در موقعیتی قرار دارد که می‌تواند دادخواست‌های ضد انحصار جهانی را هدایت کند، برخلاف مایکروسافت و گوگل که با تجزیه احتمالی مواجه هستند. اندازه گوگل آن را در معرض خطر واگذاری اجباری سیستم عامل اصلی اندروید و مشاغل مرورگر کروم قرار می‌دهد.

گوگل اخیراً نگهداری از پروژه منبع باز اندروید (AOSP) را متوقف کرده است و تغییر به سمت مدل اپل در عصر هوش مصنوعی را اجتناب‌ناپذیر کرده است. با ظهور پیشرفت‌های هوش مصنوعی، تغییر استراتژیک گوگل به طور فزاینده‌ای آشکار می‌شود.

گسترش در مورد Google’s TPU v7 Ironwood

غواصی عمیق تر در مشخصات TPU v7 Ironwood یک قطعه سخت افزاری مهندسی شده با دقت را نشان می‌دهد. 192 گیگابایت حافظه با پهنای باند بالا (HBM) یک جزء حیاتی است که امکان دسترسی سریع به داده‌ها را فراهم می‌کند که برای آموزش و اجرای مدل‌های پیچیده هوش مصنوعی ضروری است. استفاده پیش بینی شده از فناوری HBM3E بر تعهد گوگل به استفاده از پیشرفت‌های پیشرفته در فناوری حافظه تأکید می‌کند. پهنای باند 7.2-7.4 ترابایت بر ثانیه فقط یک عدد چشمگیر نیست. مستقیماً به زمان پردازش سریعتر و توانایی مدیریت مجموعه داده‌های بزرگتر و پیچیده‌تر تبدیل می‌شود.

مقایسه با B200 انویدیا با توجه به سلطه انویدیا در بازار GPU اجتناب‌ناپذیر است. در حالی که B200 پهنای باند کمی بالاتر از 8 ترابایت بر ثانیه را ارائه می‌دهد، معماری کلی سیستم و یکپارچه‌سازی در اکوسیستم گوگل جایی است که Ironwood قصد دارد خود را متمایز کند.

4.6 پتافلاپس توان محاسباتی FP8 متراکم معیاری از توانایی تراشه در انجام عملیات ممیز شناور است که برای محاسبات هوش مصنوعی اساسی است. تفاوت در مقایسه با 20 پتافلاپس B200 فلسفه‌های طراحی متمایز را برجسته می‌کند. گوگل بر مقیاس‌پذیری و یکپارچه‌سازی TPUهای خود در زیرساخت مرکز داده خود تأکید می‌کند، در حالی که انویدیا بر قدرت محاسباتی خام در سطح تراشه تمرکز دارد.

اهمیت شبکه مرکز داده ژوپیتر گوگل

شبکه مرکز داده ژوپیتر گوگل یک دارایی قابل توجه است که امکان اتصال یکپارچه تعداد زیادی تراشه TPU را فراهم می‌کند. توانایی پشتیبانی از حداکثر 400000 تراشه یا 43 خوشه TPU v7x مقیاسی را که گوگل در آن فعالیت می‌کند، نشان می‌دهد. این مقیاس‌پذیری یک تمایز کلیدی است، زیرا به گوگل اجازه می‌دهد تا حجم‌های کاری را در یک زیرساخت عظیم توزیع کند و عملکرد و کارایی را بهینه کند.

تخصص گوگل در فناوری سرور یک عامل حیاتی در استراتژی هوش مصنوعی آن است. گوگل با اولویت دادن به عملکرد سطح سیستم نسبت به مشخصات تراشه فردی، می‌تواند از زیرساخت خود برای دستیابی به نتایج برتر استفاده کند. این رویکرد به ویژه در زمینه آموزش مدل هوش مصنوعی در مقیاس بزرگ مرتبط است، جایی که توانایی توزیع محاسبات در یک شبکه از پردازنده‌های متصل به هم ضروری است.

رونمایی از محیط زمان اجرای هوش مصنوعی Pathways

معرفی Pathways یک حرکت استراتژیک است که انعطاف‌پذیری و کارایی استقرار مدل GenAI را افزایش می‌دهد. این محیط زمان اجرای هوش مصنوعی اختصاصی به توسعه دهندگان اجازه می‌دهد تا مدل‌های خود را برای زیرساخت گوگل بهینه کنند و از تمام منابع سخت‌افزاری و نرم‌افزاری موجود به طور کامل بهره ببرند.

Pathways نشان‌دهنده سرمایه‌گذاری قابل توجهی در پشته نرم‌افزاری هوش مصنوعی است که یک پلتفرم یکپارچه برای استقرار و مدیریت مدل‌های هوش مصنوعی فراهم می‌کند. گوگل با ساده‌سازی فرآیند استقرار، قصد دارد مانع ورود به عرصه برای توسعه دهندگان را کاهش دهد و پذیرش خدمات هوش مصنوعی خود را تشویق کند. این به نوبه خود نوآوری را پیش خواهد برد و یک اکوسیستم پر جنب و جوش در اطراف پلتفرم هوش مصنوعی گوگل ایجاد خواهد کرد.

بینش عمیق تر در مورد استراتژی منبع بسته گوگل

پذیرش استراتژی منبع بسته توسط گوگل در زمینه GenAI یک انتخاب آگاهانه است که نشان دهندهچشم انداز بلند مدت آن برای هوش مصنوعی است. در حالی که Gemma منبع باز یک سهم ارزشمند در جامعه هوش مصنوعی بوده است، گوگل به وضوح راه حل‌های منبع بسته خود را در اولویت قرار می‌دهد و تشخیص می‌دهد که آنها کنترل و سفارشی‌سازی بیشتری را ارائه می‌دهند.

گوگل با تمرکز بر توسعه منبع بسته، می‌تواند مدل‌ها و زیرساخت هوش مصنوعی خود را برای وظایف خاص بهینه کند و از حداکثر عملکرد و کارایی اطمینان حاصل کند. این رویکرد همچنین به گوگل اجازه می‌دهد تا از مالکیت معنوی خود محافظت کند و مزیت رقابتی را در چشم انداز هوش مصنوعی به سرعت در حال تحول حفظ کند.

رویکرد منبع بسته بدون منتقدان خود نیست، که استدلال می‌کنند که نوآوری را خفه می‌کند و همکاری را محدود می‌کند. با این حال، گوگل معتقد است که این امر برای اطمینان از کیفیت، امنیت و قابلیت اطمینان خدمات هوش مصنوعی آن ضروری است.

پروتکل A2A و نبرد برای سلطه Agent AI

ظهور Agent AI یک میدان نبرد جدید در صنعت هوش مصنوعی ایجاد کرده است و گوگل مصمم است که در این فضا پیشرو باشد. اعلام پروتکل A2A در کنفرانس Google Cloud Next نشانه روشنی از جاه‌طلبی‌های گوگل است.

گوگل با استخدام 50 فروشنده اصلی برای پشتیبانی از پروتکل A2A، در تلاش است تا یک استاندارد واحد برای ارتباطات Agent AI ایجاد کند. این امر به Agent AI از پلتفرم‌های مختلف اجازه می‌دهد تا به طور یکپارچه با یکدیگر تعامل داشته باشند و یک اکوسیستم هوش مصنوعی متصل و مشارکتی تر ایجاد کنند.

رقابت با MCP آنتروپیک یک جنبه کلیدی از استراتژی Agent AI گوگل است. آنتروپیک یک شرکت تحقیقاتی هوش مصنوعی مورد احترام است و پروتکل MCP آن در صنعت مورد توجه قرار گرفته است. پروتکل A2A گوگل نشان دهنده یک چالش مستقیم برای MCP است و نتیجه این رقابت تأثیر قابل توجهی بر آینده Agent AI خواهد داشت.

Vertex AI: یک پلتفرم جامع توسعه هوش مصنوعی

Vertex AI گوگل یک پلتفرم جامع توسعه هوش مصنوعی است که طیف گسترده‌ای از ابزارها و خدمات را در اختیار توسعه دهندگان قرار می‌دهد. گوگل با ادغام ADK، Agentspace، AutoML، AIPlatform و Kubeflow در حال ایجاد یک فروشگاه یکجا برای توسعه هوش مصنوعی است.

Vertex AI قصد دارد فرآیند توسعه هوش مصنوعی را ساده کند و ساخت، آموزش و استقرار مدل‌های هوش مصنوعی را برای توسعه دهندگان آسان تر کند. این پلتفرم همچنین دسترسی به یک کتابخانه وسیع از مدل‌های از پیش آموزش دیده را فراهم می‌کند و به توسعه دهندگان اجازه می‌دهد تا به سرعت قابلیت‌های هوش مصنوعی را در برنامه‌های خود بگنجانند.

ادغام قابلیت‌های مختلف مدل یک مزیت کلیدی Vertex AI است. گوگل با ارائه طیف متنوعی از مدل‌ها، طیف گسترده‌ای از موارد استفاده، از تشخیص تصویر تا پردازش زبان طبیعی را برآورده می‌کند. این رویکرد جامع Vertex AI را به یک انتخاب قانع کننده برای توسعه دهندگانی تبدیل می‌کند که به دنبال یک پلتفرم توسعه هوش مصنوعی همه کاره و قدرتمند هستند.

ادغام مدل گوگل: جاه طلبی در مقابل اجرا

در حالی که جاه طلبی گوگل برای ادغام تعداد زیادی مدل، خدمات و ابزار قابل ستایش است، اجرا ممکن است نیاز به پالایش بیشتری داشته باشد. بازار خواستار مدل‌های بزرگ چندوجهی بالغ، به خوبی یکپارچه و خدمات درون مدلی است. پیشنهادات فعلی گوگل، در حالی که امیدوارکننده هستند، ممکن است برای برآورده کردن این انتظارات نیاز به پالایش بیشتری داشته باشند.

ادغام قابلیت‌های مختلف هوش مصنوعی یک اقدام پیچیده است و گوگل با این چالش روبرو است که اطمینان حاصل کند که مدل‌ها و خدمات مختلف آن به طور یکپارچه با یکدیگر کار می‌کنند. این امر نیاز به توجه دقیق به جزئیات و تعهد به بهبود مستمر دارد.

در نهایت، موفقیت تلاش‌های ادغام مدل گوگل به توانایی آن در ارائه یک تجربه کاربری بستگی دارد که هم قدرتمند و هم بصری باشد. این امر مستلزم درک عمیق نیازهای کاربر و تمرکز بی‌وقفه بر کیفیت است.