Yapay zeka (AI) alanı sürekli olarak gelişiyor ve donanımdaki gelişmeler yeni olasılıkların kilidini açmada önemli bir rol oynuyor. Yapay zeka yeniliğinde öncü olan Google, yakın zamanda yedinci nesil Tensor İşleme Birimini (TPU) tanıttı. Ironwood kod adlı bu ürün, yapay zeka işlem yeteneklerinde önemli bir adımı işaret ediyor. Bu son teknoloji ürünü yapay zeka hızlandırıcı, büyük ölçekli dağıtımlarda dünyanın en hızlı süper bilgisayarlarını bile şaşırtıcı bir 24 faktörle aşan bir hesaplama gücüne sahiptir.
Google Cloud Next ‘25 konferansında duyurulan Ironwood, Google’ın on yıllık yapay zeka çip geliştirme yolculuğunda stratejik bir dönüşü temsil ediyor. Öncelikle yapay zeka eğitimi ve çıkarım iş yükleri için tasarlanan önceki sürümlerinden farklı olarak, Ironwood özellikle çıkarım görevlerinde başarılı olmak üzere tasarlanmış ve yapay zeka odaklı uygulamalarda yeni bir çağı müjdeliyor.
Google’da Makine Öğrenimi, Sistemler ve Bulut Yapay Zekası Genel Müdür Yardımcısı Amin Vahdat’a göre, ‘Ironwood, üretken yapay zekanın bir sonraki aşamasını ve muazzam hesaplama ve iletişim gereksinimlerini desteklemek için tasarlandı. Bu, ‘Çıkarım Çağı’ olarak adlandırdığımız şeydir; burada yapay zeka aracıları yalnızca veri değil, içgörü ve yanıtlar sağlamak için proaktif olarak veri alıp üreteceklerdir.’
Ironwood’un Eşi Benzeri Görülmemiş Yeteneklerinin Tanıtımı
Ironwood’un teknik özellikleri olağanüstüdür. 9.216 çiplerden oluşan bir pod’a ölçeklendirildiğinde, şaşırtıcı bir 42,5 eksaflop yapay zeka işlem gücü sağlayabilir. Bu rakam, dünyanın en hızlı süper bilgisayarı unvanını elinde bulunduran El Capitan’ın sunduğu 1,7 eksaflop’u cüceleştiriyor. Her bir Ironwood çipinin en yüksek işlem kapasitesi 4.614 TFLOP’tur.
Salt işlem gücünün ötesinde, Ironwood ayrıca bellek ve bant genişliğinde de önemli iyileştirmeler sunuyor. Her çip, geçen yıl piyasaya sürülen önceki nesil TPU olan Trillium’a kıyasla altı kat artışla 192 GB yüksek bant genişliğine sahip belleğe (HBM) sahiptir. Ayrıca, çip başına bellek bant genişliği 7,2 terabit/s’ye ulaşarak Trillium’a göre 4,5 kat iyileşme gösteriyor.
Veri merkezlerinin genişlediği ve güç tüketiminin kritik bir endişe haline geldiği bir çağda, Ironwood enerji verimliliğiyle de öne çıkıyor. Watt başına performansı Trillium’un iki katı ve 2018’de tanıtılan ilk TPU’nun neredeyse 30 katı daha yüksek.
Çıkarım optimizasyonuna yapılan vurgu, yapay zeka ortamında önemli bir değişime işaret ediyor. Son yıllarda, önde gelen yapay zeka laboratuvarları öncelikle artan parametre sayılarıyla giderek daha büyük temel modeller oluşturmaya odaklandı. Google’ın çıkarım optimizasyonuna odaklanması, dağıtım verimliliği ve çıkarım yetenekleri üzerine kurulu yeni bir aşamaya geçiş olduğunu gösteriyor.
Model eğitimi çok önemli olmaya devam ederken, eğitim yinelemelerinin sayısı sonludur. Aksine, yapay zeka teknolojileri çeşitli uygulamalara giderek daha fazla entegre olduğundan, çıkarım işlemlerinin günlük olarak milyarlarca kez gerçekleşmesi bekleniyor. Modeller karmaşıklık açısından büyüdükçe, bu uygulamaların ekonomik uygulanabilirliği kaçınılmaz olarak çıkarım maliyetlerine bağlı hale geliyor.
Son sekiz yılda Google’ın yapay zeka işlem talebi on kat artarak şaşırtıcı bir 100 milyona ulaştı. Ironwood gibi özel mimariler olmadan, Moore Yasası’nın amansız ilerlemesi bile bu katlanarak büyümeye ayak uydurmakta zorlanacaktır.
Özellikle, Google’ın duyurusu, basit örüntü tanıma yerine karmaşık muhakeme görevlerini gerçekleştirebilen ‘zihinsel modellere’ odaklandığını vurguluyor. Bu, Google’ın yapay zekanın daha büyük modellerin ötesine geçtiği ve sorunları ayrıştırabilen, çok adımlı muhakeme yapabilen ve insan benzeri düşünce süreçlerini taklit edebilen modelleri kapsadığı bir gelecek öngördüğünü gösteriyor.
Yeni Nesil Büyük Modelleri Güçlendirme
Google, Ironwood’u, yerleşik akıl yürütme yeteneklerine sahip Gemini 2.5 de dahil olmak üzere en gelişmiş yapay zeka modelleri için temel altyapı olarak konumlandırıyor.
Google ayrıca, amiral gemisi modelinin daha küçük bir çeşidi olan ve gecikmeye duyarlı, günlük uygulamalar için tasarlanan Gemini 2.5 Flash’ı da tanıttı. Gemini 2.5 Flash, akıl yürütme derinliğini istemin karmaşıklığına göre dinamik olarak ayarlayabilir.
Google ayrıca metinden görüntüye, metinden videoya ve yeni tanıtılan metinden müziğe özelliği Lyria dahil olmak üzere kapsamlı çok modlu üretken modeller paketini de sergiledi. Bir demo, bu araçların bir konser için eksiksiz bir tanıtım videosu üretmek için nasıl birleştirilebileceğini gösterdi.
Ironwood, Google’ın daha geniş yapay zeka altyapı stratejisinin yalnızca bir bileşenidir. Google ayrıca, işletmelerin Google’ın küresel ölçekli özel ağ altyapısına erişmesini sağlayan yönetilen geniş alan ağı hizmeti olan Cloud WAN’ı da duyurdu.
Ayrıca Google, Google DeepMind tarafından geliştirilen bir makine öğrenimi çalışma zamanı olan Pathways dahil olmak üzere yapay zeka iş yükleri için yazılım tekliflerini genişletiyor. Pathways artık müşterilerin model hizmetini yüzlerce TPU arasında ölçeklendirmesine olanak tanıyor.
A2A ile Yapay Zeka Aracı İşbirliğini Geliştirme
Donanım gelişmelerinin ötesinde, Google ayrıca çok aracı sistemleri üzerine kurulu bir yapay zeka ekosistemi vizyonunu da özetledi. Akıllı aracıların geliştirilmesini kolaylaştırmak için Google, farklı yapay zeka aracıları arasında güvenli ve standartlaştırılmış iletişimi sağlamak üzere tasarlanmış Agent-to-Agent (A2A) protokolünü tanıttı.
Google, 2025’in yapay zeka için dönüştürücü bir yıl olacağına ve üretken yapay zeka uygulamalarının tek soruları yanıtlamaktan aracı sistemleri aracılığıyla karmaşık sorunları çözmeye evrileceğine inanıyor.
A2A protokolü, farklı platformlar ve çerçeveler genelinde aracıların birlikte çalışabilirliğini sağlayarak onlara ortak bir ‘dil’ ve güvenli iletişim kanalları sağlıyor. Bu protokol, akıllı aracıların ağ katmanı olarak görülebilir ve karmaşık iş akışlarında aracı işbirliğini basitleştirmeyi amaçlar. A2A, uzmanlaşmış yapay zeka aracılarını farklı karmaşıklık ve süredeki görevlerde birlikte çalıştırarak işbirliği yoluyla genel yetenekleri geliştirmeyi amaçlar.
A2A, aracıların temel kod veya veri yapılarını paylaşmalarını gerektirmeden bilgi alışverişinde bulunmaları ve eylemleri koordine etmeleri için standartlaştırılmış bir yol oluşturarak çalışır. Bu, aracıların gerektiğinde kolayca eklenebildiği, çıkarılabildiği veya yeniden yapılandırılabilen daha modüler ve esnek yapay zeka sistemlerinin oluşturulmasına olanak tanır.
Google, bir blog gönderisinde MCP ve A2A protokolleri arasında karşılaştırma yaptı.
- MCP (Model Context Protocol), araç ve kaynak yönetimi için tasarlanmıştır.
- Aracıları, yapılandırılmış giriş/çıkış yoluyla araçlara, API’lere ve kaynaklara bağlar.
- Google ADK, MCP araçlarını destekleyerek çeşitli MCP sunucularının aracılarla çalışmasını sağlar.
- A2A (Agent2Agent Protocol), aracılar arasında işbirliği için tasarlanmıştır.
- Aracılar arasında bellek, kaynak veya araç paylaşmadan dinamik, çok modlu iletişimi sağlar.
- Topluluk tarafından yönlendirilen açık bir standarttır.
- Örnekler Google ADK, LangGraph, Crew.AI ve diğer araçlar kullanılarak görüntülenebilir.
Özünde, A2A ve MCP birbirini tamamlar: MCP aracılara araç desteği sağlarken, A2A bu araçlarla donatılmış aracıların birbirleriyle iletişim kurmasını ve işbirliği yapmasını sağlar.
İlk ortaklara bakıldığında, A2A’nın MCP ile benzer ilgiyi görmesi bekleniyor. Önde gelen teknoloji firmaları ve en iyi küresel danışmanlık ve sistem entegrasyonu hizmeti sağlayıcıları dahil olmak üzere 50’den fazla şirket ilk işbirliğine katıldı.
Google, protokolün açıklığına vurgu yaparak, temel teknoloji çerçevesi veya hizmet sağlayıcısından bağımsız olarak, aracıların işbirliği yapmasının standart bir yolu olarak konumlandırıyor. Google, ortaklarıyla işbirliği içinde protokolün tasarımına rehberlik eden beş temel ilkeyi özetledi:
- Aracı Yeteneklerini Kucaklayın: A2A, aracıların bellek, araç ve bağlam paylaşmasalar bile, doğal, yapılandırılmamış yollarında işbirliği yapmalarını sağlamaya odaklanır. Protokol, aracıları yalnızca ‘araçlar’ olmakla sınırlandırmak yerine, gerçek çok aracı senaryolarını etkinleştirmeyi amaçlar.
- Mevcut Standartlar Üzerine İnşa Edin: Protokol, HTTP, SSE ve JSON-RPC dahil olmak üzere mevcut popüler standartlar üzerine inşa edilerek, işletmeler tarafından yaygın olarak kullanılan mevcut BT yığınlarına entegre edilmesini kolaylaştırır.
- Varsayılan Olarak Güvenli: A2A, lansmanda OpenAPI’nin kimlik doğrulama şemalarına benzer şekilde, kurumsal düzeyde kimlik doğrulama ve yetkilendirmeyi desteklemek için tasarlanmıştır.
- Uzun Süren Görevleri Destekleyin: A2A, hızlı görevlerden saatler hatta günler sürebilecek derinlemesine araştırmalara kadar (insanlar dahil olduğunda) çok çeşitli senaryoları destekleyecek şekilde esnek olacak şekilde tasarlanmıştır. Süreç boyunca, A2A kullanıcılara gerçek zamanlı geri bildirim, bildirimler ve durum güncellemeleri sağlayabilir.
- Modalite Agnostik: Aracıların dünyası metinle sınırlı değildir, bu nedenle A2A, ses ve video akışları dahil olmak üzere çeşitli modaliteleri desteklemek için tasarlanmıştır.
Google, A2A’nın işe alım sürecini nasıl önemli ölçüde kolaylaştırabileceğine dair bir örnek veriyor.
Agentspace gibi birleşik bir arayüzde, bir işe alım yöneticisi, iş gereksinimlerine göre uygun adayları bulmak için bir aracı atayabilir. Bu aracı, adayları kaynaklamak, mülakatları planlamak ve hatta farklı sistemlerde tüm işe alım sürecinin akıllı otomasyonunu sağlamak için arka plan kontrollerinde yardımcı olmak için diğer uzmanlaşmış aracılarla etkileşim kurabilir.
Model Context Protocol’ü (MCP) Benimseme
A2A geliştirmedeki çabalarına ek olarak Google, Model Context Protocol’ü (MCP) de benimsiyor. OpenAI’nin MCP’yi benimsemesinden sadece haftalar sonra Google da aynısını yaptı.
Google DeepMind CEO’su Demis Hassabis, yakın zamanda X’te Google’ın Gemini modellerine ve SDK’larına MCP desteği ekleyeceğini duyurdu. Ancak belirli bir zaman çizelgesi vermedi.
Hassabis, ‘MCP, yapay zeka aracı çağı için hızla açık standart haline gelen mükemmel bir protokoldür. Bu teknolojiyi geliştirmek için MCP ekibi ve sektördeki diğer ortaklarla çalışmayı dört gözle bekliyorum’ dedi.
Kasım 2024’teki lansmanından bu yana MCP hızla ilgi gördü ve dil modellerini araçlar ve verilerle bağlamanın basit ve standartlaştırılmış bir yolu haline geldi.
MCP, yapay zeka modellerinin görevleri tamamlamak için kurumsal araçlar ve yazılımlar gibi kaynaklardan verilere erişmesini, ayrıca içerik kitaplıklarına ve uygulama geliştirme ortamlarına erişmesini sağlar. Protokol, geliştiricilerin veri kaynakları ve sohbet robotları gibi yapay zeka destekli uygulamalar arasında çift yönlü bağlantılar kurmasına olanak tanır.
Geliştiriciler, MCP sunucuları aracılığıyla veri arayüzlerini ortaya çıkarabilir ve bu sunuculara bağlanmak için MCP istemcileri (uygulamalar ve iş akışları gibi) oluşturabilir. Anthropic, MCP’yi açık kaynak yaptığından beri, birçok şirket MCP desteğini platformlarına entegre etti.