Ambisi Google semakin menyerupai Apple, terutama dalam ranah model besar Generative AI (GenAI). Konferensi Google Cloud Next baru-baru ini memamerkan visi ambisius Google. Ini mencakup inovasi mulai dari chip TPU v7 Ironwood, yang dirancang untuk menyaingi GB200 Nvidia, hingga protokol Agent2Agent (A2A) yang bertujuan melampaui MCP Anthropic, dan lingkungan runtime Pathways untuk penerapan GenAI.
Google juga secara aktif mengembangkan alat seperti ADK dan Agentspace untuk memberdayakan pengembang dalam membuat Agen AI. Pusat dari upaya ini adalah Vertex AI, platform pengembangan dan penerapan cloud-native AI Google. Vertex AI sekarang menawarkan beragam layanan pembuatan konten, yang meliputi Veo 2 untuk video, Imagen 3 untuk gambar, Chirp 3 untuk audio, dan Lyria untuk musik. Jelas bahwa Google Cloud memposisikan dirinya untuk menyediakan pengembang dan pengguna dengan serangkaian aplikasi pengembangan model besar GenAI yang komprehensif.
Meskipun kegunaan sebenarnya dari layanan dan pengalaman ini masih harus dilihat, Google telah membangun ekosistem perangkat keras dan perangkat lunak AI multi-modal lengkap yang dikembangkan sendiri, closed-source, dan tersedia.
Pendekatan komprehensif ini menggambarkan Google sebagai Apple di era AI.
Ironwood TPU: Pesaing yang Kuat
Peluncuran chip TPU generasi ketujuh, Ironwood, sangat penting.
- Setiap TPU dilengkapi dengan memori HBM 192GB, dengan bandwidth mulai dari 7,2 hingga 7,4TB/s, kemungkinan menggunakan teknologi HBM3E. Ini sebanding dengan chip B200 Nvidia, yang menawarkan bandwidth 8TB/s.
- Setiap TPU v7 berpendingin cair dapat mencapai 4,6 Petaflops daya komputasi FP8 padat. Ini sedikit kurang dari 20 Petaflops B200.
- Namun, jaringan pusat data Jupiter Google memungkinkan penskalaan untuk mendukung hingga 400.000 chip atau 43 cluster TPU v7x. Keahlian teknologi server Google memungkinkannya untuk menekankan metrik kinerja chip tunggal.
- Yang terpenting, Google telah memperkenalkan Pathways, lingkungan runtime AI khusus yang meningkatkan fleksibilitas penerapan model GenAI, yang selanjutnya memperkuat keunggulannya di domain cluster layanan.
- Ironwood tersedia dalam dua konfigurasi cluster: 256 chip atau 9216 chip, yang disesuaikan dengan beban kerja tertentu. Satu cluster dapat mencapai daya komputasi 42,5 Exaflops. Google mengklaim kinerja ini melampaui superkomputer terbesar di dunia, El Capitan, dengan faktor 24. Namun, angka ini diukur pada presisi FP8, dan El Capitan AMD belum memberikan data presisi FP8. Google telah mengakui hal ini, sehingga perbandingan langsung menjadi sulit.
Merangkul Ekosistem GenAI Closed-Source
Google mengejar ekosistem closed-source komprehensif di bidang GenAI. Sementara Gemma open-source memiliki kelebihannya, Google menyalurkan sumber daya menuju solusi closed-sourcenya.
Dengan lonjakan minat Agen AI, Google mengumumkan protokol A2A di konferensi tersebut, mendaftarkan 50 vendor mainstream untuk bersaing dengan MCP Anthropic.
Sementara OpenAI membuka sumber Agents SDK-nya, mengintegrasikan kemampuan model besarnya, Google memperluas Vertex AI dengan ADK, Agentspace, AutoML, AIPlatform, dan Kubeflow, menyuntikkan berbagai kemampuan model.
Namun, ketika membandingkan pembuatan gambar GPT-4o dengan fitur setara Gemini 2.0 Flash, penawaran Google, meskipun ambisius, mungkin kurang polesan. Integrasi banyak model, layanan, dan alat, meskipun bermanfaat untuk persaingan, mungkin tampak terlalu dini. Pasar membutuhkan model besar multi-modal dan layanan dalam model yang matang dan terintegrasi dengan baik.
Mereplikasi Model Gmail, Chrome, dan Google di AI
Keberhasilan Google dengan Gmail, Chrome, dan pendekatan ‘roket tiga tahapnya’ telah memungkinkannya untuk mendominasi pasar teknologi global. Strategi ini diterapkan dengan cepat di bidang GenAI. Namun, tidak seperti advokasinya di masa lalu untuk open source, Google semakin merangkul pengembangan closed-source.
Google secara efektif mengubah open source menjadi bentuk closed source dengan mengkonsolidasikan sumber dayanya untuk membangun ekosistem dominan di area tertentu, kemudian memungut biaya. Pendekatan ini menghadapi peningkatan kritik dari pengembang.
Kerangka pembelajaran mesin open-source Google, TensorFlow dan Jax, telah mencapai kesuksesan global. Namun, lingkungan runtime Pathways yang baru adalah closed-source, bahkan mengisolasi alat pengembangan CUDA Nvidia.
Google vs. Nvidia: Pertempuran untuk Dominasi AI
Saat Nvidia memperjuangkan AI Fisik dan memperkenalkan model umum robot humanoid open-source Isaac GR00T N1, Google DeepMind memasuki pasar dengan Gemini Robotics dan Gemini Robotics-ER, berdasarkan Gemini 2.0.
Saat ini, kehadiran Google hanya kurang di pasar komputer AI desktop. Bagaimana DGX Spark Nvidia (sebelumnya Project DIGITS) dan DGX Station, bersama dengan Mac Studio Apple, akan bersaing dengan layanan cloud Google? Pertanyaan ini telah menjadi titik fokus di industri setelah konferensi tersebut.
Ketergantungan Apple pada Google Cloud dan Chip M3 Ultra
Apple dilaporkan menggunakan cluster TPU Google Cloud untuk melatih model besarnya, bahkan meninggalkan solusi pelatihan chip Nvidia karena pertimbangan biaya! Sementara menghadapi kelemahan perangkat lunak, Apple berfokus pada chip seri M-nya. Mac Studio terbaru, yang dilengkapi dengan chip M3 Ultra, sekarang menawarkan hingga 512GB memori terpadu. Potensi adopsi awal Apple atas teknologi Pathways Google Cloud mungkin telah menyelaraskannya dengan Google.
Faktor Antitrust
Masalah mendasar berkisar pada kekhawatiran antitrust. Saat ini, model bisnis Apple diposisikan secara unik untuk menavigasi gugatan antitrust global, tidak seperti Microsoft dan Google, yang menghadapi potensi perpecahan. Ukuran Google membuatnya terpapar pada risiko pelepasan paksa sistem operasi Android inti dan bisnis browser Chrome-nya.
Google baru-baru ini menghentikan pemeliharaan Proyek Open Source Android (AOSP), membuat perubahan ke model Apple tidak terhindarkan di era AI. Saat terobosan AI muncul, pergeseran strategis Google menjadi semakin jelas.
Memperluas TPU v7 Ironwood Google
Menyelami lebih dalam spesifikasi TPU v7 Ironwood mengungkapkan perangkat keras yang direkayasa dengan cermat. Memori Bandwidth Tinggi (HBM) 192GB adalah komponen penting, memungkinkan akses data cepat yang penting untuk melatih dan menjalankan model AI yang kompleks. Proyeksi penggunaan teknologi HBM3E menggarisbawahi komitmen Google untuk memanfaatkan kemajuan mutakhir dalam teknologi memori. Bandwidth 7,2-7,4TB/s bukan hanya angka yang mengesankan; itu secara langsung diterjemahkan ke dalam waktu pemrosesan yang lebih cepat dan kemampuan untuk menangani dataset yang lebih besar dan lebih rumit.
Perbandingan dengan B200 Nvidia tidak terhindarkan, mengingat dominasi Nvidia di pasar GPU. Sementara B200 menawarkan bandwidth yang sedikit lebih tinggi sebesar 8TB/s, arsitektur sistem secara keseluruhan dan integrasi dalam ekosistem Google adalah tempat Ironwood bertujuan untuk membedakan dirinya.
4,6 Petaflops daya komputasi FP8 padat adalah ukuran kemampuan chip untuk melakukan operasi floating-point, yang mendasar untuk perhitungan AI. Perbedaan dibandingkan dengan 20 Petaflops B200 menyoroti filosofi desain yang berbeda. Google menekankan skalabilitas dan integrasi TPU-nya dalam infrastruktur pusat datanya, sedangkan Nvidia berfokus pada daya komputasi mentah di tingkat chip.
Signifikansi Jaringan Pusat Data Jupiter Google
Jaringan pusat data Jupiter Google adalah aset yang signifikan, memungkinkan koneksi tanpa batas dari sejumlah besar chip TPU. Kemampuan untuk mendukung hingga 400.000 chip atau 43 cluster TPU v7x menggarisbawahi skala di mana Google beroperasi. Skalabilitas ini adalah pembeda utama, karena memungkinkan Google untuk mendistribusikan beban kerja di seluruh infrastruktur besar, mengoptimalkan kinerja dan efisiensi.
Keahlian Google dalam teknologi server adalah faktor penting dalam strategi AI-nya. Dengan memprioritaskan kinerja tingkat sistem di atas spesifikasi chip individu, Google dapat memanfaatkan infrastrukturnya untuk mencapai hasil yang unggul. Pendekatan ini sangat relevan dalam konteks pelatihan model AI skala besar, di mana kemampuan untuk mendistribusikan komputasi di seluruh jaringan prosesor yang saling berhubungan sangat penting.
Mengungkap Lingkungan Runtime AI Pathways
Pengenalan Pathways adalah langkah strategis yang meningkatkan fleksibilitas dan efisiensi penerapan model GenAI. Lingkungan runtime AI khusus ini memungkinkan pengembang untuk mengoptimalkan model mereka untuk infrastruktur Google, memanfaatkan sepenuhnya sumber daya perangkat keras dan perangkat lunak yang tersedia.
Pathways mewakili investasi yang signifikan dalam tumpukan perangkat lunak AI, menyediakan platform terpadu untuk menerapkan dan mengelola model AI. Dengan merampingkan proses penerapan, Google bertujuan untuk menurunkan hambatan masuk bagi pengembang dan mendorong adopsi layanan AI-nya. Ini, pada gilirannya, akan mendorong inovasi dan menciptakan ekosistem yang dinamis di sekitar platform AI Google.
Wawasan Lebih Dalam tentang Strategi Closed-Source Google
Penerimaan Google atas strategi closed-source di bidang GenAI adalah pilihan yang disengaja yang mencerminkan visi jangka panjangnya untuk AI. Sementara Gemma open-source telah menjadi kontribusi yang berharga bagi komunitas AI, Google jelas memprioritaskan solusi closed-sourcenya, menyadari bahwa mereka menawarkan kontrol dan penyesuaian yang lebih besar.
Dengan berfokus pada pengembangan closed-source, Google dapat mengoptimalkan model dan infrastruktur AI-nya untuk tugas-tugas tertentu, memastikan kinerja dan efisiensi maksimum. Pendekatan ini juga memungkinkan Google untuk melindungi kekayaan intelektualnya dan mempertahankan keunggulan kompetitif dalam lanskap AI yang berkembang pesat.
Pendekatan closed-source bukannya tanpa kritik, yang berpendapat bahwa itu menghambat inovasi dan membatasi kolaborasi. Namun, Google berpendapat bahwa itu diperlukan untuk memastikan kualitas, keamanan, dan keandalan layanan AI-nya.
Protokol A2A dan Pertempuran untuk Dominasi Agen AI
Kemunculan Agen AI telah menciptakan medan pertempuran baru di industri AI, dan Google bertekad untuk menjadi pemimpin di ruang ini. Pengumuman protokol A2A di konferensi Google Cloud Next adalah indikasi yang jelas dari ambisi Google.
Dengan mendaftarkan 50 vendor mainstream untuk mendukung protokol A2A, Google mencoba untuk membuat standar terpadu untuk komunikasi Agen AI. Ini akan memungkinkan Agen AI dari platform yang berbeda untuk berinteraksi dengan mulus, menciptakan ekosistem AI yang lebih saling berhubungan dan kolaboratif.
Persaingan dengan MCP Anthropic adalah aspek kunci dari strategi Agen AI Google. Anthropic adalah perusahaan riset AI yang dihormati, dan protokol MCP-nya telah mendapatkan daya tarik di industri ini. Protokol A2A Google mewakili tantangan langsung bagi MCP, dan hasil dari persaingan ini akan memiliki dampak yang signifikan pada masa depan Agen AI.
Vertex AI: Platform Pengembangan AI Komprehensif
Vertex AI Google adalah platform pengembangan AI komprehensif yang menyediakan pengembang dengan berbagai alat dan layanan. Dengan mengintegrasikan ADK, Agentspace, AutoML, AIPlatform, dan Kubeflow, Google menciptakan toko serba ada untuk pengembangan AI.
Vertex AI bertujuan untuk menyederhanakan proses pengembangan AI, membuatnya lebih mudah bagi pengembang untuk membangun, melatih, dan menerapkan model AI. Platform ini juga menyediakan akses ke perpustakaan besar model pra-pelatihan, memungkinkan pengembang untuk dengan cepat memasukkan kemampuan AI ke dalam aplikasi mereka.
Integrasi berbagai kemampuan model adalah keuntungan utama dari Vertex AI. Dengan menawarkan beragam model, Google melayani berbagai kasus penggunaan, dari pengenalan gambar hingga pemrosesan bahasa alami. Pendekatan komprehensif ini menjadikan Vertex AI pilihan yang menarik bagi pengembang yang mencari platform pengembangan AI yang serbaguna dan kuat.
Integrasi Model Google: Ambisi vs. Eksekusi
Sementara ambisi Google untuk mengintegrasikan banyak model, layanan, dan alat terpuji, eksekusi mungkin memerlukan penyempurnaan lebih lanjut. Pasar menuntut model besar multi-modal dan layanan dalam model yang matang dan terintegrasi dengan baik. Penawaran Google saat ini, meskipun menjanjikan, mungkin memerlukan polesan lebih lanjut untuk memenuhi harapan ini.
Integrasi berbagai kemampuan AI adalah usaha yang kompleks, dan Google menghadapi tantangan untuk memastikan bahwa model dan layanannya yang berbeda bekerja bersama dengan mulus. Ini membutuhkan perhatian yang cermat terhadap detail dan komitmen untuk peningkatan berkelanjutan.
Pada akhirnya, keberhasilan upaya integrasi model Google akan bergantung pada kemampuannya untuk memberikan pengalaman pengguna yang kuat dan intuitif. Ini akan membutuhkan pemahaman yang mendalam tentang kebutuhan pengguna dan fokus tanpa henti pada kualitas.