Yapay zeka (YZ) dünyasında ChatGPT’nin ortaya çıkışından bu yana, büyük dil modellerindeki (LLM’ler) ilerlemeler arayışı hiç durmadı. İlk başta parametre büyüklüğüne odaklanılırken, zamanla pratik uygulamalara geçildi. Ancak YZ’nin gücünden yararlanmak isteyen işletmeler için hala önemli zorluklar devam ediyor. Yüksek işlem gücü maliyetleri ve dağınık YZ uygulama ekosistemi, kritik sorunlar olarak karşımıza çıkıyor. Şirketler, YZ’ye yaptıkları büyük yatırımların beklenen getirileri sağlamadığını görüyor ve bu durum, sürekli bir ‘ROI (Yatırım Getirisi) ikilemi’ yaratıyor.
MCP ve A2A’nın Doğuşu: Bir Paradigma Değişimi
2025 yılında Model Context Protocol (MCP) ve Agent2Agent (A2A) protokollerinin ortaya çıkışı, YZ uygulama geliştirme sürecinde önemli bir anı temsil ediyor. MCP, arayüzleri standartlaştırarak veri silolarını ortadan kaldırmayı, LLM’lerin harici kaynaklara verimli bir şekilde erişmesini sağlamayı ve sistemler ile platformlar arasında sorunsuz bir veri akışını kolaylaştırmayı hedefliyor. A2A ise aracıların (agents) sorunsuz etkileşimini teşvik ederek, işbirliğini ve iletişimi destekleyerek uyumlu ve entegre sistemler oluşturuyor.
MCP’den A2A’ya geçiş, YZ uygulama ekosisteminde ‘açıklık’ konusunun ne kadar önemli olduğunu gösteriyor. Bu açıklık, hem teknik birlikte çalışabilirliği hem de işbirliği ruhunu kapsıyor. Daha geniş bir perspektiften bakıldığında, bu dönüşüm teknolojinin gelişimindeki doğal bir ilerlemeyi yansıtıyor: başlangıçtaki heyecandan pratik uygulamaya ve izole yenilikten işbirlikçi ekosistem evrimine geçiş.
Tarihsel olarak, LLM’lerin değeri orantısız bir şekilde parametre ölçeğine ve bağımsız yeteneklerine atfedilmiştir. Bugün ise MCP ve A2A, YZ uygulamaları arasındaki bağlantı sorununu ele alarak LLM ekosisteminin rekabet dinamiklerini yeniden şekillendiriyor. YZ uygulama geliştirme, ‘yalnız kurt’ yaklaşımından birbirine bağlılık modeline doğru evriliyor. Bu durum, CTO’ların YZ değerini yeniden değerlendirmesini gerektiriyor; sadece model büyüklüğü ve ‘her şey dahil’ stratejileri izlemek yerine, çeşitli YZ yeteneklerini birbirine bağlayan platformlardan yararlanmaya odaklanılması gerekiyor. Amaç, YZ’yi mevcut iş süreçlerine ve üretim sistemlerine organik olarak entegre etmek, işbirliği ve standardizasyon yoluyla genel verimliliği artırmak, minimum işlem kaynaklarıyla kritik sorunları çözmek ve ‘ROI ikilemini’ aşmaktır.
Boşa Giden Hesaplama Gücü ve Yanlış Senaryoların Ortaklığı
Yüksek yatırım, düşük çıktı darboğazının aşılmaması, uzun süredir LLM’lerin uygulanmasını engelliyor. Bu olgu, YZ gelişimindeki derin çelişkileri yansıtıyor. İlk olarak, hesaplama gücünde önemli bir israf söz konusu. Veriler, kurumsal düzeydeki genel amaçlı bilgi işlem merkezlerinin yalnızca %10-15 kullanım oranında çalıştığını ve büyük miktarda işlem kaynağının boşta kaldığını gösteriyor. İkinci olarak, model performansının iş senaryolarının gerçek ihtiyaçlarını karşılamadığı senaryolarda bir uyumsuzluk var.
Yaygın bir sorun, hafif görevler için büyük modellerin kullanılmasıdır. Bazı işletmeler, basit uygulamalar için genel amaçlı LLM’lere aşırı derecede güveniyor. Ek olarak, iş senaryolarının benzersiz yapısı da ikilemler yaratıyor. Büyük modelleri kullanmak, yüksek işlem maliyetlerine ve uzun çıkarım sürelerine neden oluyor. Daha küçük modelleri tercih etmek ise iş gereksinimlerini karşılamayabiliyor. Bu çatışma, özellikle özel alan bilgisi gerektiren iş senaryolarında belirginleşiyor.
İşe alım sektöründeki yetenek-iş eşleştirme senaryosunu ele alalım. Şirketler, özgeçmişler ve iş tanımları arasındaki karmaşık ilişkileri anlamak için derin muhakeme yeteneklerine sahip modellere ihtiyaç duyarken, aynı zamanda hızlı yanıt süreleri de talep ediyor. Genel amaçlı LLM’lerin uzun çıkarım süreleri, özellikle yüksek eş zamanlı kullanıcı talepleri altında, kullanıcı deneyimini önemli ölçüde kötüleştirebilir.
Performans ve verimliliği dengelemek için model damıtma, son yıllarda popülerlik kazanmıştır. Bu yılın başlarında DeepSeek-R1’in piyasaya sürülmesi, bu tekniğin değerini daha da vurguladı. Karmaşık muhakeme görevlerini ele alırken, model damıtma, DeepSeek-R1’in ‘düşünce zinciri’ modelini yakalar ve hafif öğrenci modellerinin sadece çıktı sonuçlarını taklit etmek yerine, muhakeme yeteneklerini devralmasını sağlar.
Örneğin, önde gelen bir işe alım platformu olan Zhaopin, yetenek-iş eşleştirme görevlerinde kullanılan düşünce zinciri ve karar verme mantığını damıtmak için bir öğretmen modeli olarak DeepSeek-R1’i (600+ milyar parametre) kullandı. Öğretmen modelini damıtmak ve öğrenci modeli olan ERNIE Speed modeline (10+ milyar parametre) aktarmak için Baidu AI Cloud Qianfan model geliştirme platformunu kullandılar. Bu yaklaşım, öğretmen modeline benzer bir performans elde etti (DeepSeek-R1, muhakeme bağlantı sonuçlarında %85 doğruluk elde ederken, öğrenci modeli %81’in üzerinde doğruluk elde etti), çıkarım hızını kabul edilebilir bir seviyeye yükseltti ve maliyetleri orijinalin %30’una düşürürken, tam teşekküllü DeepSeek-R1’den 1 kat daha hızlı hızlara ulaştı.
Şu anda, işletmeler tipik olarak model damıtma için iki yaklaşım benimser: altyapı ve GPU’lardan eğitim çerçevelerine kadar eksiksiz bir teknik sistem oluşturmak veya Qianfan model geliştirme platformu veya diğer satıcılar gibi platform tabanlı çözümleri kullanmak. Zhaopin’de YZ uygulama uzmanı olan Yao Sijia, Zhaopin’in kendi eğitim çerçevesi olmasına rağmen, üç ana nedenden dolayı model damıtma için Qianfan model geliştirme platformunu seçtiklerini belirtti:
- Kapsamlı destek: Qianfan model geliştirme platformu, model damıtma için endüstri lideri destek sağlar ve damıtma senaryoları etrafındaki tüm teknik zinciri derinlemesine optimize eder.
- Maliyet kontrolü: Bağımsız olarak donanım satın almak ve bakımını yapmakla karşılaştırıldığında, Qianfan model geliştirme platformu, maliyet kontrolünde ve daha esnek kaynak tahsisinde önemli avantajlar sunar.
- İş senaryolarının derinlemesine anlaşılması: Baidu’nun profesyonel çözümler ekibi, işe alım alanındaki ‘doğru eşleştirme’ ve ‘yüksek eş zamanlı yanıt’ gibi temel gereksinimleri derinlemesine anlar ve şirketlerle birlikte çözümler keşfeder.
Yao Sijia, Zhaopin’in Qianfan’ın Güçlendirilmiş Öğrenme İnce Ayarı (RFT) teknolojisini kullanarak model performansını daha da artırmak için AI+ işe alım senaryolarına öncülük etmeye devam edeceğini ekledi. Öğretmen modelinin daha da geliştirilip geliştirilemeyeceğini ve daha iyi ödül mekanizmalarının zaten damıtılmış öğrenci modellerini doğruluklarını artırmak için optimize edip edemeyeceğini araştırmayı planlıyorlar. Qianfan, Çin’de RFT ve GRPO gibi önde gelen takviyeli öğrenme yöntemlerini ürünleştiren ilk platformdur. Bu son teknoloji takviyeli öğrenme yöntemlerini uygulanabilir çözümlere dönüştürerek, Qianfan, Zhaopin gibi şirketlere model performansını optimize etmek için daha fazla olanak sunuyor.
Ancak, model damıtma yalnızca tek bir modelin performansını optimize eder. Karmaşık iş senaryolarında, çeşitli YZ yeteneklerini senaryolarla tam olarak eşleştirmek gerekir.
Bir akıllı telefonu ele alalım. Arama asistanları gibi niyet tanıma senaryolarında, kullanıcı sorunlarını hızlı bir şekilde tanımlamak için genellikle hafif modeller kullanılır. Hava durumu sorguları ve haber alma gibi genel bilgi Soru-Cevap senaryoları için, hızlı bir şekilde doğru ve bilgilendirici cevaplar sağlamak için genellikle orta ölçekli modeller kullanılır. Derin düşünmeyi gerektiren veri analizi ve mantıksal muhakeme senaryolarında, genellikle büyük modeller kullanılır.
Bu, bir akıllı telefonun farklı kullanıcı talep senaryolarında birden fazla LLM’yi esnek bir şekilde çağırması gerektiği anlamına gelir. Telefon üreticileri için bu, yüksek model seçim maliyetleri ve farklı model arayüz protokolleri nedeniyle karmaşık arama süreçleri gibi zorluklar yaratır.
Bu sektördeki sorunları çözmek için Qianfan model geliştirme platformu, model yönlendirme arayüzlerini ürünleştirdi. Orijinal fabrika modellerini doğrudan kullanmakla karşılaştırıldığında, özel geliştirme ve kullanıma hazır API çağırma ürün yetenekleri sağlar, şirketlerin mühendislik iş yükünden ve geliştirme süresinden tasarruf etmelerine yardımcı olurken maliyetleri düşürür. Ek olarak, Qianfan model geliştirme platformu, yüksek frekanslı ve yüksek eş zamanlı arama talepleri altında bile hızı ve kararlılığı sağlayarak büyük ölçekli kullanıcılar için esnek aramayı destekler.
Model düzeyinde, model damıtma ve çok modelli arama gibi teknik yetenekler, giderek daha fazla şirketin kaynak tahsisini optimize etmesine yardımcı oluyor, YZ yeteneklerinin iş senaryolarıyla tam olarak eşleşmesini sağlarken maliyetleri düşürüyor. Uygulama düzeyinde, önemli endüstri ilgisi gören MCP ve A2A, YZ deneme yanılma maliyetlerini daha da azaltıyor, şirketlerin uygulama işbirliği paradigmalarını optimize etmelerine yardımcı oluyor ve geleneksel aracı geliştirmede verimsiz ‘tekerleği yeniden icat etme’ modelini değiştiriyor.
Modellerden uygulamalara bir ‘kombinasyon vuruşu’, LLM’lerin ‘ROI ikilemini’ aşmasına yardımcı olmak için mükemmel bir cevaptır.
Kapalıdan Açıka: YZ Denemelerinin Önündeki Engelleri Kaldırmak
2023’ten bu yana, YZ uygulama uygulamasının anahtar kelimesi kademeli olarak Agent’a kaydı. 2024’e gelindiğinde, neredeyse tüm şirketler Agent uygulamalarını ve geliştirmesini tartışıyor. Ancak, o zamanki Agent’lar gerçek planlama yeteneklerinden yoksundu ve öncelikle iş akışı perspektiflerine dayanıyordu, LLM’leri temel uygulamalarla uzman odaklı kurallar aracılığıyla bileşenleri bir araya getirerek veya prosedürleştirerek birbirine bağlıyordu.
Son zamanlarda MCP ve A2A protokollerinin yükselişiyle birlikte, 2025 gerçek bir ‘Agent Sıfır Yılı’ haline geldi. Özellikle, MCP’nin YZ alanı üzerindeki etkisi, TCP/IP protokolünün İnternet üzerindeki etkisine benzetilebilir.
Biyao Technology CEO’su Zhou Ze’an, InfoQ ile yaptığı bir röportajda, MCP’nin YZ alanı için temel değerinin üç boyutta yansıdığını belirtti:
- LLM araç çağrısının standardizasyonu: Geçmişte, her şirketin kendi İşlev Çağrısı uygulaması vardı ve aralarında önemli farklılıklar vardı. MCP, istemciler ve sunucular arasında uygulama zamanlama şemalarının gerçek standardizasyonunu sağlayarak birleşik bir erişim standardı oluşturur. Ek olarak, MCP, yalnızca İşlev Çağrısını destekleyen LLM’ler arasında değil, aynı zamanda bu özelliğe sahip olmayan LLM’lerle de etkileşimi sağlar.
- Araç işbirliği zorluklarını çözme: MCP protokolünün birleşik standardı, Agent hizmetlerinin yapımını daha çeşitli hale getirir. Geliştiricilerin yalnızca kendi Agent’larını ve MCP hizmetlerini değil, aynı zamanda daha güçlü Agent işlevlerine ulaşmak için harici yetenekleri nasıl entegre edeceklerini de düşünmeleri gerekir.
- LLM’ler aracılığıyla tüm bağlamı kontrol etmek, daha kullanıcı dostu bir etkileşimle sonuçlanır: Süreçler oluştururken, daha önce imkansız olan karmaşık görevleri çözmek için daha geniş bir veri kaynağı yelpazesi kullanabilir.
Zhou Ze’an, ‘Genel olarak, MCP protokolü, şirketlerin YZ teknolojisini benimsemesinin önündeki engelleri önemli ölçüde azaltıyor. Geçmişte, Agent’lara erişmek için teknik entegrasyon süreci karmaşıktı. Artık şirketlerin karmaşık teknik uygulama ayrıntılarını derinlemesine anlamaları gerekmiyor, sadece iş ihtiyaçlarını netleştirmeleri gerekiyor’ dedi. Biyao Technology, sözleşmeler, özgeçmişler ve PPT’ler dahil olmak üzere, kendi geliştirdiği insan kaynakları sektörü dikey LLM’si ‘Bole’nin belge işleme yeteneklerini MCP protokolü aracılığıyla tamamen açtı ve Qianfan uygulama geliştirme platformunda MCP bileşenlerini başlatan ilk kurumsal geliştiricilerden biri oldu. Şu anda, herhangi bir işletme veya bireysel geliştirici, Qianfan platformunda profesyonel yeteneklerini doğrudan çağırabilir.
‘Baidu, geliştiricilerin MCP’yi aktif ve kapsamlı bir şekilde benimsemesine yardımcı olacaktır.’ 25 Nisan’da düzenlenen Create2025 Baidu AI Geliştirici Konferansı’nda, Qianfan platformu resmi olarak kurumsal düzeyde MCP hizmetlerini başlattı. Baidu kurucusu Li Yanhong, Qianfan platformunun MCP’yi benimseme örneğini göstererek, geliştiricilerin Agent’lar oluştururken Baidu AI arama, haritalar ve Wenku dahil olmak üzere 1000 MCP Sunucusuna esnek bir şekilde erişmelerini sağladı. Ek olarak, Qianfan, geliştiricilerin Qianfan’da kendi MCP Sunucularını kolayca geliştirmelerini ve tek tıklamayla Qianfan MCP Meydanı’nda yayınlamalarını sağlayan düşük kodlu bir MCP Sunucusu oluşturma aracı başlattı. Bu MCP Sunucuları ayrıca Baidu araması tarafından derhal indekslenecek ve daha fazla geliştirici tarafından keşfedilip kullanılmalarına olanak tanınacak.
Aslında, Qianfan, MCP protokolünün yükselişinden önce de AI uygulamasının son aşamasını sürekli olarak çözüyordu ve şirketlerin AI teknolojisinin faydalarından verimli ve düşük engellerle yararlanmalarına yardımcı oluyor ve birden fazla sektör için olgun çözümler sunuyordu.
Örneğin, akıllı ev sektöründe, şirketler genellikle ortak bir sorunla karşı karşıyadır: büyük ürün modelleri için nasıl doğru akıllı hizmetler sağlanır? LLM’lerin hızlandırılmış uygulamasıyla, giderek daha fazla şirket kullanıcılara doğru ve kişiselleştirilmiş cevaplar sağlamak için Agent’ları kullanıyor. Ancak bu aynı zamanda yeni bir zorluk getiriyor: çok sayıda Agent nasıl geliştirilir ve yönetilir? Akıllı ev markalarının tipik olarak birçok farklı ürün kategorisi ve modeli vardır. Her ürün için ayrı ayrı bir Agent oluşturmak, yalnızca yüksek geliştirme maliyetlerine değil, aynı zamanda daha sonraki aşamalarda önemli yönetim ve bakım maliyetlerine de yol açacaktır.
Örneğin, önde gelen bir akıllı ev markası, dosya adlarını bağımsız dilimler olarak ele almak ve dosya adı dilimi bilgilerini her ince taneli dilime yerleştirmek için Baidu AI Cloud Qianfan uygulama geliştirme platformunu kullandı. Her ürün için ayrı ayrı bir Agent oluşturmak yerine, yalnızca karşılık gelen bilgi tabanını sıralamaları ve ürün model adlarını tanımlamaları gerekiyordu. Ardından, ürün modellerinin ve bilgi noktalarının hassas bir şekilde eşleştirilmesini sağlamak için Qianfan platformunun RAG çerçevesi otomatik ayrıştırma stratejisini kullanabilirler.
Qianfan uygulama geliştirme platformu ayrıca markaya sürekli gelişen bir akıllı merkez oluşturmak için bir dizi operasyon aracı sağlar. Veri geri akış fonksiyonu aracılığıyla, tüm kullanıcı etkileşim kayıtları optimizasyon materyallerine dönüştürülür. Operasyon personeli, yüksek frekanslı sorunları gerçek zamanlı olarak görüntüleyebilir ve keşfedilmemiş bilgi noktalarına anında müdahale ederek bir ‘operasyon - geri bildirim - optimizasyon’ kapalı döngüsü oluşturabilir. Ek olarak, Qianfan uygulama geliştirme platformu ve Xiaodu AI Assistant, ortaklaşa bir sesli etkileşim çerçevesi oluşturdu. Bu çerçeveye dayanarak, marka, donanımın kullanıcılarla doğrudan ‘konuşmasını’ sağlayabilir ve daha doğal, verimli ve kişiselleştirilmiş bir etkileşim deneyimi elde edebilir.
MCP’den A2A’ya, açıklık, LLM uygulama ekosisteminde yeni bir anahtar kelime haline geldi. Açıklık aynı zamanda Qianfan platformunun orijinal amacıdır. Qianfan, 2023’te piyasaya sürüldüğü ilk günden itibaren, zengin üçüncü taraf LLM’lere erişmek için en açık duruşu benimsedi. Şu anda, Qianfan, DeepSeek, LLaMA, Tongyi ve Vidu gibi üçüncü taraf modeller dahil olmak üzere metin, resim ve derin muhakeme gibi 11 tür yeteneği kapsayan 30’dan fazla model satıcısından 100’den fazla modele erişime sahiptir. Ayrıca, yeni piyasaya sürülen yerel çok modlu model Wenxin 4.5 Turbo ve derin düşünme modeli Wenxin X1 Turbo’nun yanı sıra, daha önce piyasaya sürülen derin düşünme modeli Wenxin X1 dahil olmak üzere Wenxin LLM’lerinin eksiksiz bir yelpazesini sunmaktadır.
AI teknolojisini hızla uygulamak isteyen şirketler için Baidu AI Cloud, giderek ilk tercih haline geliyor. Pazar verileri en iyi kanıttır. Şu anda, Qianfan platformu 400.000’den fazla müşteriye hizmet veriyor ve merkezi kuruluşlarda %60’ın üzerinde bir nüfuz oranına sahip. Çin Büyük Model İhale Projesi İzleme ve İçgörü Raporu’na (2025Q1) göre, Baidu, ilk çeyrekte büyük model ihale projelerinin sayısı ve kazanılan tekliflerin tutarı açısından çifte birincilik elde etti: açıklanan proje tutarı 450 milyon yuanın üzerinde olan 19 büyük model ihale projesi kazandı ve kazanılan büyük model projelerinin neredeyse tamamı enerji ve finans gibi sektörlerdeki merkezi devlet kurumlarına ait müşterilerden geldi.
Baidu AI Cloud’un karnesi ayrıca dış dünyaya bir sinyal gönderiyor: AI teknolojisi uygulaması için bu uzun vadeli savaşta, yalnızca sektörün sorunlarını gerçekten anlayan ve şirketlerin deneme yanılma maliyetlerini düşürmelerine yardımcı olabilecek çözümler en hayati olanlardır.