Lanskap kecerdasan buatan telah didefinisikan ulang dengan peluncuran Tensor Processing Unit (TPU) generasi ketujuh dari Google, yang dinamai Ironwood. Akselerator AI mutakhir ini menawarkan kecakapan komputasi yang bahkan mengerdilkan superkomputer paling hebat di dunia. Dalam penyebaran skala besar, kemampuan Ironwood melebihi superkomputer tercepat hingga 24 kali lipat.
Peluncuran Ironwood di acara Google Cloud Next ‘25 menandai momen penting dalam pengejaran inovasi chip AI selama satu dekade oleh Google. Sementara iterasi TPU sebelumnya terutama melayani beban kerja pelatihan dan inferensi model AI, Ironwood menonjol sebagai chip pertama yang dibuat dan dioptimalkan dengan cermat untuk tugas-tugas inferensi.
Menurut Amin Vahdat, Wakil Presiden dan Manajer Umum Pembelajaran Mesin, Sistem, dan Cloud AI di Google, ‘Ironwood direkayasa untuk mendorong fase generasi AI berikutnya, mengatasi tuntutan komputasi dan komunikasi yang sangat besar. Kita memasuki apa yang kita sebut ‘Era Inferensi,’ di mana agen AI akan secara proaktif mengambil dan menghasilkan data untuk secara kolaboratif memberikan wawasan dan jawaban, melampaui kemampuan pemrosesan data belaka.’
Melepaskan Kekuatan Komputasi yang Belum Pernah Terjadi Sebelumnya: Selami Kemampuan Ironwood
Spesifikasi teknis Ironwood terdengar seperti daftar harapan bagi para peneliti dan pengembang AI. Scaling ke pod 9.216 chip, Ironwood memberikan 42,5 exaflops komputasi AI yang mencengangkan. Untuk menempatkan ini dalam perspektif, itu jauh melampaui kemampuan juara superkomputer yang berkuasa saat ini, El Capitan, yang mencapai puncak 1,7 exaflops. Secara individual, setiap chip Ironwood memiliki kapasitas komputasi puncak 4614 TFLOPs.
Di luar kekuatan pemrosesan mentah, Ironwood memperkenalkan peningkatan signifikan dalam memori dan bandwidth. Setiap chip dilengkapi dengan 192GB High Bandwidth Memory (HBM), peningkatan enam kali lipat dibandingkan dengan TPU generasi sebelumnya, Trillium. Bandwidth memori juga telah ditingkatkan secara dramatis, mencapai 7,2 terabit/s per chip, 4,5 kali lipat dari Trillium.
Di era di mana pusat data berkembang dan konsumsi daya menjadi faktor yang semakin penting, Ironwood menunjukkan efisiensi energi yang luar biasa. Kinerja per watt-nya dua kali lipat dari Trillium dan hampir 30 kali lebih baik daripada TPU awal yang diperkenalkan pada tahun 2018.
Pergeseran menuju optimasi inferensi ini mewakili tonggak penting dalam evolusi AI. Dalam beberapa tahun terakhir, lab AI terkemuka telah berfokus pada pembangunan model fondasi dengan jumlah parameter yang terus berkembang. Penekanan Google pada optimasi inferensi menandakan pergeseran ke arah memprioritaskan efisiensi penyebaran dan kemampuan inferensi dunia nyata.
Sementara pelatihan model AI adalah aktivitas yang relatif jarang, operasi inferensi terjadi miliaran kali setiap hari karena teknologi AI menjadi lebih meresap. Kelangsungan ekonomi bisnis bertenaga AI secara intrinsik terkait dengan biaya inferensi, terutama karena model menjadi semakin kompleks.
Selama delapan tahun terakhir, permintaan Google untuk komputasi AI telah tumbuh secara eksponensial, meningkat sepuluh kali lipat dan mencapai 100 juta yang mencengangkan. Tanpa arsitektur khusus seperti Ironwood, Hukum Moore saja tidak dapat mempertahankan lintasan pertumbuhan ini.
Penekanan Google pada ‘model penalaran’ yang mampu melakukan tugas inferensi yang kompleks, daripada pengenalan pola sederhana, sangat patut diperhatikan. Ini menunjukkan bahwa Google membayangkan masa depan di mana AI unggul tidak hanya melalui model yang lebih besar tetapi juga melalui model yang mampu memecah masalah, melakukan penalaran multi-langkah, dan meniru proses berpikir seperti manusia.
Memberdayakan Generasi Berikutnya dari Model Bahasa Besar
Google memposisikan Ironwood sebagai infrastruktur fondasi untuk model AI-nya yang paling canggih, termasuk Gemini 2.5, yang menawarkan ‘kemampuan penalaran asli.’
Bersamaan dengan Ironwood, Google meluncurkan Gemini 2.5 Flash, versi ramping dari model andalannya yang dirancang untuk aplikasi sehari-hari yang sensitif terhadap latensi. Gemini 2.5 Flash dapat secara dinamis menyesuaikan kedalaman penalarannya berdasarkan kompleksitas perintah.
Google juga memamerkan rangkaian model generatif multimodal-nya, yang mencakup teks-ke-gambar, teks-ke-video, dan fungsionalitas teks-ke-musik yang baru diperkenalkan, Lyria. Demo yang menarik menyoroti bagaimana alat-alat ini dapat digabungkan untuk menghasilkan video promosi lengkap untuk sebuah konser.
Ironwood hanyalah salah satu komponen dari strategi infrastruktur AI komprehensif Google. Perusahaan juga memperkenalkan Cloud WAN, layanan jaringan area luas terkelola yang memungkinkan bisnis untuk memanfaatkan infrastruktur jaringan pribadi skala global Google.
Google juga memperluas penawaran perangkat lunaknya untuk beban kerja AI, termasuk Pathways, runtime pembelajaran mesin yang dikembangkan oleh Google DeepMind, yang memungkinkan pelanggan untuk menskalakan penyajian model di ratusan TPU.
Visi Kecerdasan Kolaboratif: Memperkenalkan Dukungan A2A dan MCP
Di luar kemajuan perangkat keras, Google mengartikulasikan visinya untuk AI yang berpusat di sekitar sistem multi-agen dan memperkenalkan protokol Agent-to-Agent (A2A), yang dirancang untuk membina komunikasi yang aman dan terstandarisasi antara beragam agen AI.
Google mengantisipasi tahun 2025 sebagai tahun transformatif untuk AI, dengan aplikasi AI generatif yang berkembang dari menjawab satu pertanyaan menjadi memecahkan masalah kompleks melalui sistem agen yang saling berhubungan.
Protokol A2A memungkinkan interoperabilitas lintas platform dan kerangka kerja, menyediakan agen AI dengan ‘bahasa’ umum dan saluran komunikasi yang aman. Anggap saja sebagai lapisan jaringan untuk agen AI, menyederhanakan kolaborasi dalam alur kerja yang kompleks dan memungkinkan agen AI khusus untuk secara kolektif menangani tugas dengan berbagai kompleksitas dan durasi, sehingga meningkatkan kemampuan keseluruhan melalui kerja sama.
Bagaimana Cara Kerja A2A
Google telah memberikan gambaran perbandingan protokol MCP dan A2A:
- MCP (Model Context Protocol): Berfokus pada manajemen alat dan sumber daya.
- Menghubungkan agen ke alat, API, dan sumber daya melalui input/output terstruktur.
- Google ADK mendukung alat MCP, memfasilitasi interaksi tanpa batas antara server dan agen MCP.
- A2A (Agent2Agent Protocol): Memfasilitasi kolaborasi antar agen.
- Memungkinkan komunikasi multi-modal yang dinamis antar agen tanpa memerlukan memori, sumber daya, atau alat bersama.
- Ini adalah standar terbuka yang didorong oleh komunitas.
- Contoh dapat dieksplorasi menggunakan alat seperti Google ADK, LangGraph, dan Crew.AI.
A2A dan MCP saling melengkapi. MCP melengkapi agen dengan alat, sementara A2A memberdayakan agen yang dilengkapi ini untuk berkomunikasi dan berkolaborasi.
Daftar mitra awal Google menunjukkan bahwa A2A siap menerima perhatian yang sama dengan MCP. Inisiatif ini telah menarik lebih dari 50 organisasi, termasuk perusahaan teknologi terkemuka dan penyedia konsultasi dan integrasi sistem global.
Google menekankan keterbukaan protokol, memposisikannya sebagai standar untuk kolaborasi antar-agen yang melampaui kerangka kerja teknologiatau penyedia layanan yang mendasarinya. Google menyoroti lima prinsip panduan yang membentuk desain protokol:
- Rangkul Kemampuan Agen: A2A memprioritaskan pemberdayaan agen untuk berkolaborasi secara alami, bahkan tanpa berbagi memori, alat, atau konteks. Tujuannya adalah untuk memungkinkan skenario multi-agen sejati, tidak hanya membatasi agen untuk bertindak sebagai ‘alat.’
- Bangun di Atas Standar yang Ada: Protokol ini memanfaatkan standar yang ada dan diadopsi secara luas, termasuk HTTP, SSE, dan JSON-RPC, menyederhanakan integrasi dengan tumpukan TI yang ada.
- Aman Secara Default: A2A dirancang untuk mendukung otentikasi dan otorisasi tingkat perusahaan, sebanding dengan skema otentikasi OpenAPI.
- Mendukung Tugas Jangka Panjang: Fleksibilitas A2A memungkinkannya untuk mendukung berbagai skenario, dari tugas cepat hingga penelitian mendalam yang mungkin memakan waktu berjam-jam atau bahkan berhari-hari (terutama ketika keterlibatan manusia diperlukan). Sepanjang proses, A2A dapat memberikan pengguna umpan balik, pemberitahuan, dan pembaruan status secara real-time.
- Agnostik Modalitas: Menyadari bahwa dunia agen meluas melampaui teks, A2A mendukung berbagai modalitas, termasuk aliran audio dan video.
Google memberikan contoh bagaimana A2A menyederhanakan proses perekrutan.
Dalam antarmuka terpadu seperti Agentspace, seorang manajer perekrutan dapat menugaskan agen untuk mengidentifikasi kandidat yang cocok berdasarkan persyaratan pekerjaan. Agen ini dapat berinteraksi dengan agen khusus untuk mencari kandidat. Pengguna juga dapat menginstruksikan agen untuk menjadwalkan wawancara dan melibatkan agen khusus lainnya untuk membantu pemeriksaan latar belakang, memungkinkan perekrutan cerdas dan otomatis sepenuhnya di seluruh sistem.
Merangkul Model Context Protocol (MCP)
Google juga merangkul MCP. Tak lama setelah OpenAI mengumumkan adopsi Anthropic’s Model Context Protocol (MCP), Google mengikuti jejaknya.
Demis Hassabis, CEO Google DeepMind, mengumumkan di X (sebelumnya Twitter) bahwa Google akan menambahkan dukungan untuk MCP dalam model dan SDK Gemini-nya, meskipun ia tidak memberikan garis waktu tertentu.
Hassabis menyatakan bahwa ‘MCP adalah protokol yang sangat baik yang dengan cepat menjadi standar terbuka untuk era agen AI. Kami berharap dapat bekerja sama dengan tim MCP dan mitra lain di industri untuk memajukan teknologi ini.’
Sejak dirilis pada November 2024, MCP telah mendapatkan daya tarik signifikan sebagai cara sederhana dan terstandarisasi untuk menghubungkan model bahasa dengan alat dan data.
MCP memungkinkan model AI untuk mengakses data dari alat dan perangkat lunak perusahaan untuk menyelesaikan tugas dan mengakses perpustakaan konten dan lingkungan pengembangan aplikasi. Protokol ini memungkinkan pengembang untuk membuat koneksi dua arah antara sumber data dan aplikasi bertenaga AI seperti chatbot.
Pengembang dapat mengekspos antarmuka data melalui server MCP dan membangun klien MCP (seperti aplikasi dan alur kerja) untuk terhubung ke server ini. Sejak Anthropic membuka sumber MCP, beberapa perusahaan telah mengintegrasikan dukungan MCP ke dalam platform mereka.
Ironwood: Fajar Era Baru dalam AI
Ironwood TPU Google mewakili lompatan signifikan ke depan dalam komputasi AI. Kinerja yang belum pernah terjadi sebelumnya, arsitektur yang dioptimalkan, dan dukungan untuk protokol yang sedang berkembang seperti A2A dan MCP memposisikannya sebagai penggerak utama gelombang inovasi AI berikutnya. Saat model AI tumbuh semakin kompleks dan menuntut, Ironwood menyediakan daya mentah dan fleksibilitas yang dibutuhkan untuk membuka kemungkinan baru dan mengubah industri di seluruh dunia. Ini bukan hanya chip baru; ini adalah fondasi untuk masa depan yang didukung oleh mesin cerdas yang bekerja secara kolaboratif untuk memecahkan masalah kompleks dan meningkatkan kehidupan kita.