Google’ın yedinci nesil Tensor İşleme Birimi (TPU) olan Ironwood’un tanıtımıyla birlikte yapay zeka (AI) işleme alanı önemli ölçüde değişti. Bu son teknoloji AI hızlandırıcı, büyük ölçekli dağıtımlarda dünyanın en hızlı süper bilgisayarını 24 kattan fazla aşan hesaplama yeteneklerine sahip.
Google Cloud Next ‘25 konferansında tanıtılan bu yeni çip, Google’ın AI çip geliştirme alanındaki on yıllık stratejisinde önemli bir anı işaret ediyor. Öncelleri öncelikle hem AI eğitimi hem de çıkarım iş yükleri için tasarlanmışken, Ironwood özellikle çıkarım için tasarlandı ve AI dağıtım verimliliğini optimize etmeye yönelik stratejik bir değişime işaret ediyor.
Google’ın Makine Öğrenimi, Sistemler ve Bulut AI’dan Sorumlu Başkan Yardımcısı ve Genel Müdürü Amin Vahdat, bu geçişi vurgulayarak, “Ironwood, üretken AI’nın bir sonraki aşamasını ve onun muazzam işlem ve iletişim taleplerini desteklemek için tasarlandı. Buna ‘Çıkarım Çağı’ diyoruz; burada AI aracıları, yalnızca veri işlemek yerine, içgörüler ve yanıtlar sunmak için proaktif olarak veri alıp üreteceklerdir” dedi.
42.5 Exaflop’luk Hesaplama Gücüyle Sınırları Aşmak
Ironwood’un teknik özellikleri gerçekten etkileyici. 9.216 çipten oluşan bir pod’a ölçeklendiğinde, şaşırtıcı bir şekilde 42.5 exaflop AI hesaplama gücü sunuyor. Bunu perspektife koymak gerekirse, şu anda 1.7 exaflop’ta çalışan dünyanın en hızlı süper bilgisayarı El Capitan’ı gölgede bırakıyor. Her bir Ironwood çipi, 4614 TFLOP’luk bir tepe hesaplama yeteneğine ulaşabiliyor.
Ham işlem gücünün ötesinde, Ironwood belleği ve bant genişliğini önemli ölçüde artırıyor. Her çip, geçen yıl piyasaya sürülen önceki nesil TPU Trillium’a kıyasla altı kat artışla 192 GB yüksek bant genişliğine sahip bellek (HBM) ile donatılmıştır. Çip başına bellek bant genişliği, Trillium’un 4,5 katı olan 7,2 terabit/s’ye ulaşıyor.
- Hesaplama Gücü: 42.5 exaflop (9.216 çiplik pod başına)
- Çip Başına Tepe Hesaplama: 4614 TFLOP
- Bellek: Çip başına 192 GB HBM
- Bellek Bant Genişliği: Çip başına 7,2 terabit/s
Veri merkezlerinin genişlediği ve güç tüketiminin artan bir endişe kaynağı olduğu bir çağda Ironwood, enerji verimliliğinde de önemli iyileştirmeler gösteriyor. Trillium’a kıyasla watt başına iki kat, 2018’de tanıtılan ilk TPU’nun ise yaklaşık 30 katı performans sunuyor.
Çıkarım için yapılan bu optimizasyon, AI’nın evriminde kritik bir dönüm noktasını işaret ediyor. Son yıllarda önde gelen AI laboratuvarları, sürekli genişleyen parametre sayılarına sahip giderek daha büyük temel modeller geliştirmeye yoğunlaştı. Google’ın çıkarım optimizasyonuna odaklanması, dağıtım verimliliği ve çıkarım yetenekleri merkezli yeni bir paradigmaya doğru bir geçişi gösteriyor.
Model eğitimi temel olmaya devam ederken, AI teknolojileri daha yaygın hale geldikçe çıkarım operasyonları günlük olarak milyarlarca kez daha sık gerçekleşiyor. AI’dan yararlanan işletmeler için modeller daha karmaşık hale geldikçe ekonomi, doğası gereği çıkarım maliyetlerine bağlıdır.
Google’ın AI işlem talebi, son sekiz yılda on kat artarak şaşırtıcı bir şekilde 100 milyona ulaştı. Ironwood gibi özel mimariler olmadan bu büyüme yörüngesini geleneksel Moore Yasası’ndaki gelişmelerle sürdürmek imkansız olurdu.
Google’ın duyurusunda, basit örüntü tanıma yerine karmaşık çıkarım görevlerini yürütebilen “akıl yürütme modellerine” odaklanılması dikkat çekiciydi. Bu, AI’nın geleceğinin yalnızca daha büyük modellerde değil, aynı zamanda sorunları parçalayabilen, çok adımlı akıl yürütmeye katılan ve insan benzeri düşünce süreçlerini taklit edebilen modellerde yattığına dair bir inancı gösteriyor.
Yeni Nesil Büyük Modelleri Güçlendirmek
Google, Ironwood’u “doğal akıl yürütme yeteneklerine” sahip kendi Gemini 2.5’i de dahil olmak üzere en gelişmiş AI modelleri için temel altyapı olarak konumlandırıyor.
Şirket ayrıca kısa süre önce, amiral gemisi modelinin daha küçük bir versiyonu olan ve “akıl yürütme derinliğini istemin karmaşıklığına göre ayarlamak” için tasarlanan Gemini 2.5 Flash’ı tanıttı. Bu model, hızlı yanıt süreleri gerektiren günlük uygulamalara yönelik.
Google ayrıca, metinden görüntüye, metinden videoya ve yeni tanıtılan metinden müziğe yeteneği Lyria’yı kapsayan kapsamlı multimodal üretim modelleri paketini sergiledi. Bir demo, bu araçların bir konser için eksiksiz bir tanıtım videosu oluşturmak üzere nasıl birleştirilebileceğini gösterdi.
Ironwood, Google’ın daha geniş AI altyapı stratejisinin yalnızca bir bileşenidir. Şirket ayrıca, işletmelere Google’ın küresel ölçekli özel ağ altyapısına erişim sağlayan yönetilen geniş alan ağı hizmeti Cloud WAN’ı da duyurdu.
Google ayrıca, Google DeepMind tarafından geliştirilen bir makine öğrenimi çalışma zamanı olan Pathways de dahil olmak üzere AI iş yükleri için yazılım tekliflerini genişletiyor. Pathways artık müşterilerin model sunumunu yüzlerce TPU’ya ölçeklendirmesine olanak tanıyor.
A2A’yı Tanıtıyoruz: Akıllı Ajan İşbirliği Ekosistemini Geliştirmek
Donanım gelişmelerinin ötesinde Google, çoklu ajan sistemleri etrafında merkezlenen AI vizyonunu sunarak akıllı ajanların geliştirilmesini kolaylaştırmak için bir protokol tanıttı: Agent-to-Agent (A2A). Bu protokol, farklı AI ajanları arasında güvenli ve standartlaştırılmış iletişimi teşvik etmek için tasarlanmıştır.
Google, 2025’in AI için dönüştürücü bir yıl olacağına ve üretken AI uygulamasının tek soruları yanıtlamaktan akıllı ajan sistemleri aracılığıyla karmaşık sorunları çözmeye evrileceğine inanıyor.
A2A protokolü, platformlar ve çerçeveler arasında birlikte çalışabilirliği sağlayarak ajanlara ortak bir “dil” ve güvenli iletişim kanalları sağlıyor. Bu protokol, karmaşık iş akışlarında ajan işbirliğini basitleştirmeyi amaçlayan akıllı ajanlar için ağ katmanı olarak görülebilir. Uzmanlaşmış AI ajanlarının, işbirliği yoluyla genel yetenekleri artırarak, değişen karmaşıklık ve süredeki görevler üzerinde birlikte çalışmasını sağlıyor.
A2A Nasıl Çalışır?
Google, blog gönderisinde MCP ve A2A protokolleri arasında bir karşılaştırma sağladı:
- MCP (Model Context Protocol): Araç ve kaynak yönetimi için
- Yapılandırılmış girdi/çıktı yoluyla ajanları araçlara, API’lere ve kaynaklara bağlar.
- Google ADK, çeşitli MCP sunucularının ajanlarla çalışmasını sağlayan MCP araçlarını destekler.
- A2A (Agent2Agent Protocol): Ajanlar arasındaki işbirliği için
- Bellek, kaynak veya araç paylaşmadan ajanlar arasında dinamik multimodal iletişimi sağlar.
- Topluluk tarafından yönlendirilen açık bir standart.
- Örnekler Google ADK, LangGraph ve Crew.AI gibi araçlar kullanılarak görüntülenebilir.
Esasen A2A ve MCP birbirini tamamlayıcıdır. MCP, ajanlara araç desteği sağlarken, A2A bu donatılmış ajanların birbirleriyle iletişim kurmasına ve işbirliği yapmasına olanak tanır.
Google tarafından açıklanan ortakların listesi, A2A’nın MCP’ye benzer bir ilgi görmeye hazır olduğunu gösteriyor. Girişim, önde gelen teknoloji firmaları ve en iyi küresel danışmanlık ve sistem entegrasyonu hizmet sağlayıcıları dahil olmak üzere ilk işbirliği grubuna şimdiden 50’den fazla şirketi çekti.
Google, protokolün açıklığına vurgu yaparak, onu temel teknoloji çerçevelerinden veya hizmet sağlayıcılardan bağımsız olarak ajanların işbirliği yapması için standart yöntem olarak konumlandırdı. Şirket, ortaklarıyla protokolü tasarlarken aşağıdaki beş temel ilkeye bağlı kaldığını belirtti:
- Ajan Yeteneklerini Benimseyin: A2A, hafızayı, araçları ve bağlamı paylaşmasalar bile ajanların doğal, yapılandırılmamış yollarla işbirliği yapmasını sağlamaya odaklanır. Amaç, ajanları yalnızca “araçlar” ile sınırlamadan gerçek çoklu ajan senaryolarını etkinleştirmektir.
- Mevcut Standartları Temel Alın: Protokol, HTTP, SSE ve JSON-RPC dahil olmak üzere mevcut popüler standartları temel alır ve bu da işletmeler tarafından kullanılan mevcut BT yığınlarına entegre etmeyi kolaylaştırır.
- Varsayılan Olarak Güvenli: A2A, lansmanda OpenAPI’nin kimlik doğrulama şemalarına kıyasla kurumsal düzeyde kimlik doğrulama ve yetkilendirmeyi desteklemek için tasarlanmıştır.
- Uzun Süren Görevleri Destekleyin: A2A, hızlı görevlerden saatler hatta günler sürebilen derinlemesine araştırmalara (insanlar dahil olduğunda) kadar çok çeşitli senaryoları destekleyecek şekilde esneklikle tasarlanmıştır. A2A, süreç boyunca kullanıcılara gerçek zamanlı geri bildirim, bildirimler ve durum güncellemeleri sağlayabilir.
- Modalite Agnostik: Ajanlar dünyası metinle sınırlı değildir; bu nedenle A2A, ses ve video akışları dahil olmak üzere çeşitli modaliteleri desteklemek için tasarlanmıştır.
Örnek: A2A ile Kolaylaştırılmış İşe Alım Süreci
Google tarafından sağlanan bir örnek, A2A’nın işe alım sürecini nasıl önemli ölçüde kolaylaştırabileceğini gösteriyor.
Agentspace gibi birleşik bir arayüzde, bir işe alım yöneticisi iş gereksinimlerine göre uygun adayları bulmak için bir ajan atayabilir. Bu ajan, aday kaynak bulmayı tamamlamak için belirli alanlardaki uzmanlaşmış ajanlarla etkileşim kurabilir. Kullanıcı ayrıca ajana görüşmeleri planlamasını ve arka plan kontrollerine yardımcı olmak için diğer uzmanlaşmış ajanları etkinleştirmesini talimatlayabilir, böylece tam otomatik, sistemler arası işbirlikçi işe alım sağlanır.
MCP’yi Benimsemek: Model Context Protocol Ekosistemine Katılmak
Eşzamanlı olarak Google, MCP’yi de benimsiyor. OpenAI’nin Anthropic’in Model Context Protocol’ünü (MCP) benimsemesini duyurmasından sadece haftalar sonra Google da aynı şeyi yaptı ve girişime katıldı.
Google DeepMind CEO’su Demis Hassabis, X’te Google’ın Gemini modellerine ve SDK’larına MCP desteği ekleyeceğini duyurdu, ancak belirli bir zaman çizelgesi verilmedi.
Hassabis, “MCP, AI ajanları çağı için hızla açık standart haline gelen mükemmel bir protokoldür. Bu teknolojinin gelişimini ilerletmek için MCP ekibi ve sektördeki diğer ortaklarla birlikte çalışmayı dört gözle bekliyoruz” dedi.
Kasım 2024’teki lansmanından bu yana MCP, hızla popülerlik ve yaygın ilgi gördü ve dil modellerini araçlar ve verilerle bağlamanın basit ve standartlaştırılmış bir yolu olarak ortaya çıktı.
MCP, AI modellerinin görevleri tamamlamak ve içerik kitaplıklarına ve uygulama geliştirme ortamlarına erişmek için kurumsal araçlar ve yazılımlar gibi veri kaynaklarından verilere erişmesini sağlar. Protokol, geliştiricilerin veri kaynakları ve sohbet robotları gibi AI güdümlü uygulamalar arasında çift yönlü bağlantılar kurmasına olanak tanır.
Geliştiriciler, MCP sunucuları aracılığıyla veri arabirimleri gösterebilir ve bu sunuculara bağlanmak için MCP istemcileri (uygulamalar ve iş akışları gibi) oluşturabilir. Anthropic MCP’yi açık kaynaklı hale getirdiğinden beri birçok şirket MCP desteğini platformlarına entegre etti.
Temel Kavramların Gelişmiş Analizi:
Google’ın son duyurularının etkisini ve önemini daha da açıklığa kavuşturmak için temel bileşenlere daha derinlemesine bakalım: Ironwood, A2A ve MCP.
Ironwood: Çıkarım Çağına Derinlemesine Bir Bakış
Öncelikle modelleri eğitmeye odaklanmaktan çıkarımı optimize etmeye geçiş, AI ortamında kritik bir evrimdir. Eğitim, kalıpları tanımayı ve tahminlerde bulunmayı öğretmek için bir modele çok büyük miktarda veri beslemeyi içerir. Öte yandan çıkarım, eğitilmiş bir modeli yeni, görünmeyen veriler üzerinde tahminlerde bulunmak için kullanma işlemidir.
Eğitim kaynak yoğun, bir kerelik (veya seyrek) bir olay olsa da, çıkarım gerçek dünya uygulamalarında sürekli ve ölçekli olarak gerçekleşir. Aşağıdaki gibi uygulamaları göz önünde bulundurun:
- Sohbet Robotları: Kullanıcı sorgularına gerçek zamanlı olarak yanıt verme.
- Öneri Sistemleri: Kullanıcı tercihlerine göre ürün veya içerik önerme.
- Dolandırıcılık Tespiti: Dolandırıcılık işlemlerini gerçekleştiği anda belirleme.
- Görüntü Tanıma: Nesneleri, insanları veya sahneleri belirlemek için görüntüleri analiz etme.
Bu uygulamalar, sorunsuz bir kullanıcı deneyimi sunmak için hızlı, verimli çıkarım gerektirir. Ironwood, özellikle bu görevlerde üstün olmak için tasarlanmıştır.
Çıkarım için Ironwood’un Temel Avantajları:
- Yüksek Verim: Muazzam işlem gücü (42.5 exaflop), Ironwood’un aynı anda çok sayıda çıkarım isteğini işlemesine olanak tanır.
- Düşük Gecikme Süresi: Yüksek bant genişliğine sahip bellek (HBM) ve verimli mimari, her bir çıkarım isteğini işleme süresini en aza indirir.
- Enerji Verimliliği: Watt başına iyileştirilmiş performans, büyük ölçekli çıkarım dağıtımlarını çalıştırma ile ilişkili işletme maliyetlerini azaltır.
Google, çıkarımı optimize ederek işletmelerin AI destekli uygulamaları daha verimli ve uygun maliyetli bir şekilde dağıtmasını sağlıyor.
A2A: İşbirlikçi AI’nın Temeli
Agent-to-Agent (A2A) protokolü, daha karmaşık ve işbirlikçi AI sistemleri oluşturmaya yönelik önemli bir adımı temsil ediyor. Çoklu ajan sisteminde, birden fazla AI ajanı karmaşık bir sorunu çözmek için birlikte çalışır. Her ajanın kendi uzmanlaşmış becerileri ve bilgisi olabilir ve ortak bir hedefe ulaşmak için birbirleriyle iletişim kurar ve koordinasyon sağlar.
Otomatik müşteri desteği içeren bir senaryoyu göz önünde bulundurun:
- Ajan 1: Müşterinin ilk sorgusunu anlar ve temel sorunu belirler.
- Ajan 2: İlgili bilgileri bulmak için bir bilgi tabanına erişir.
- Ajan 3: Gerekirse insan bir ajanla bir takip randevusu planlar.
Bu ajanların, uyumlu bir müşteri deneyimi sağlamak için sorunsuz bir şekilde iletişim kurabilmesi ve bilgi paylaşabilmesi gerekir. A2A, bu tür bir işbirliği için çerçeve sağlar.
A2A’nın Temel Faydaları:
- Birlikte Çalışabilirlik: Farklı platformlarda ve çerçevelerde geliştirilen ajanların birbirleriyle iletişim kurmasına olanak tanır.
- Standartlaştırma: Ajan iletişimi için ortak bir “dil” ve protokoller kümesi sağlar.
- Güvenlik: Hassas verileri koruyarak ajanlar arasında güvenli iletişimi sağlar.
- Esneklik: Metin, ses ve video dahil olmak üzere çok çeşitli iletişim modalitelerini destekler.
AI ajanları arasında işbirliğini teşvik ederek A2A, daha güçlü ve çok yönlü AI sistemlerinin geliştirilmesini sağlar.
MCP: AI ve Veri Arasındaki Boşluğu Doldurmak
Model Context Protocol (MCP), AI modellerini görevlerini etkili bir şekilde yerine getirmek için gereken büyük miktarda veriye bağlama zorluğunu ele alır. AI modellerinin doğru tahminler yapmak ve bilinçli kararlar almak için veritabanları, API’ler ve bulut hizmetleri gibi çeşitli kaynaklardan gerçek zamanlı verilere erişmesi gerekir.
MCP, AI modellerinin bu veri kaynaklarına erişmesi ve bunlarla etkileşim kurması için standartlaştırılmış bir yol sağlar. Aşağıdaki için bir protokoller kümesi tanımlar:
- Veri Keşfi: Mevcut veri kaynaklarını belirleme.
- Veri Erişimi: Veri kaynaklarından veri alma.
- Veri Dönüşümü: Verileri AI modelinin anlayabileceği bir biçime dönüştürme.
MCP, veri erişimi için standartlaştırılmış bir arabirim sağlayarak AI modellerini gerçek dünya verileriyle entegre etme sürecini basitleştirir.
MCP’nin Temel Avantajları:
- Basitleştirilmiş Entegrasyon: AI modellerini veri kaynaklarına bağlamayı kolaylaştırır.
- Standartlaştırma: Veri erişimi için ortak bir protokoller kümesi sağlar.
- Artan Verimlilik: Verilere erişmek ve dönüştürmek için gereken süreyi ve çabayı azaltır.
- Geliştirilmiş Doğruluk: AI modellerinin en güncel bilgilere erişmesini sağlayarak daha doğru tahminlere yol açar.
AI modellerini ihtiyaç duydukları verilere bağlayarak MCP, daha etkili bir şekilde performans göstermelerini ve daha fazla değer sunmalarını sağlar.