Wraz z pojawieniem się ChatGPT, nieustanne dążenie do postępu w dużych modelach językowych (LLM) stało się cechą charakterystyczną krajobrazu AI. Początkowy nacisk na rozmiar parametrów stopniowo przesunął się w kierunku praktycznych zastosowań, jednak dla firm dążących do wykorzystania mocy AI nadal istnieją poważne wyzwania. Wysokie koszty związane z mocą obliczeniową i fragmentaryczny charakter ekosystemu aplikacji AI pozostają krytycznymi problemami. Firmy często stwierdzają, że ich znaczne inwestycje w AI nie przekładają się na oczekiwane zwroty, co prowadzi do uporczywego “dylematu ROI”.
Narodziny MCP i A2A: Zmiana Paradygmatu
Pojawienie się protokołów Model Context Protocol (MCP) i Agent2Agent (A2A) w 2025 roku to przełomowy moment w ewolucji rozwoju aplikacji AI. MCP ma na celu standaryzację interfejsów, aby zlikwidować silosy danych, umożliwiając LLM wydajny dostęp do zasobów zewnętrznych i ułatwiając płynny przepływ danych między systemami i platformami. A2A dodatkowo promuje płynną interakcję między agentami, wspierając współpracę i komunikację w celu tworzenia spójnych, zintegrowanych systemów.
Przejście z MCP na A2A podkreśla rosnący nacisk na “otwartość” jako kluczowy czynnik w ekosystemie aplikacji AI. Ta otwartość obejmuje zarówno interoperacyjność techniczną, jak i ducha współpracy. Z szerszej perspektywy, ta transformacja odzwierciedla naturalny postęp w rozwoju technologii: przejście od początkowego podekscytowania do praktycznej implementacji oraz od izolowanej innowacji do ewolucji ekosystemu opartego na współpracy.
Historycznie, wartość LLM była nieproporcjonalnie przypisywana skali parametrów i samodzielnym możliwościom. Dziś MCP i A2A rozwiązują kluczową kwestię wzajemnego połączenia między aplikacjami AI i zmieniają konkurencyjną dynamikę ekosystemu LLM. Rozwój aplikacji AI ewoluuje od podejścia “samotnego wilka” do modelu wzajemnego powiązania. Wymaga to ponownej oceny wartości AI dla CTO, przesuwając nacisk z samego dążenia do wielkości modelu i strategii “all-in” na wykorzystanie platform, które łączą różnorodne możliwości AI. Celem jest organiczne osadzenie AI w istniejących procesach biznesowych i systemach produkcyjnych, poprawa ogólnej wydajności poprzez współpracę i standaryzację, rozwiązywanie krytycznych problemów przy minimalnych zasobach obliczeniowych i pokonanie “dylematu ROI”.
Plaga Marnotrawionej Mocy Obliczeniowej i Niedopasowanych Scenariuszy
Brak możliwości pokonania wąskiego gardła wysokich inwestycji i niskich wyników od dawna nęka wdrażanie LLM. Zjawisko to odzwierciedla głęboko zakorzenione sprzeczności w rozwoju AI. Po pierwsze, występuje znaczne marnotrawstwo mocy obliczeniowej. Dane wskazują, że centra obliczeniowe ogólnego przeznaczenia na poziomie przedsiębiorstwa działają z wykorzystaniem zaledwie 10-15%, pozostawiając ogromne ilości zasobów obliczeniowych bezczynnymi. Po drugie, występuje niedopasowanie scenariuszy, w których wydajność modelu nie spełnia rzeczywistych potrzeb scenariuszy biznesowych.
Jednym z częstych problemów jest “przesada” w wykorzystywaniu dużych modeli do lekkich zadań. Niektóre firmy nadmiernie polegają na ogólnych LLM do prostych aplikacji. Ponadto, unikalny charakter scenariuszy biznesowych stwarza dylematy. Korzystanie z dużych modeli wiąże się z wysokimi kosztami obliczeniowymi i długimi czasami wnioskowania. Wybór mniejszych modeli może nie spełniać wymagań biznesowych. Konflikt ten jest szczególnie widoczny w scenariuszach biznesowych wymagających specjalistycznej wiedzy domenowej.
Rozważmy scenariusz dopasowywania talentów do pracy w branży rekrutacyjnej. Firmy wymagają modeli z głębokimi zdolnościami rozumowania, aby zrozumieć złożone relacje między życiorysami a opisami stanowisk, jednocześnie wymagając szybkiego czasu reakcji. Długie czasy wnioskowania ogólnych LLM mogą znacząco obniżyć komfort użytkowania, szczególnie przy dużym zapotrzebowaniu ze strony użytkowników.
Aby zrównoważyć wydajność i efektywność, destylacja modelu zyskała popularność w ostatnich latach. Uruchomienie DeepSeek-R1 na początku tego roku dodatkowo podkreśliło wartość tej techniki. W obsłudze złożonych zadań rozumowania, destylacja modelu wychwytuje wzorzec “łańcucha myśli” DeepSeek-R1, pozwalając lekkim modelom studenckim dziedziczyć jego zdolności rozumowania, a nie tylko naśladować wyniki wyjściowe.
Na przykład, Zhaopin, wiodąca platforma rekrutacyjna, wykorzystała DeepSeek-R1 (ponad 600 miliardów parametrów) jako model nauczycielski do destylacji łańcucha myśli i logiki podejmowania decyzji stosowanej w zadaniach dopasowywania talentów do pracy. Użyli platformy rozwoju modelu Baidu AI Cloud Qianfan do destylacji modelu nauczycielskiego i przeniesienia go do modelu ERNIE Speed (ponad 10 miliardów parametrów), modelu studenckiego. Takie podejście osiągnęło wydajność porównywalną z modelem nauczycielskim (DeepSeek-R1 osiągnął 85% dokładności w wynikach linków rozumowania, podczas gdy model studencki osiągnął ponad 81%), poprawiło szybkość wnioskowania do akceptowalnego poziomu i obniżyło koszty do 30% pierwotnych, osiągając jednocześnie 1x szybsze prędkości niż pełnowymiarowy DeepSeek-R1.
Obecnie firmy zazwyczaj przyjmują dwa podejścia do destylacji modelu: budowanie kompletnego systemu technicznego od infrastruktury i GPU po ramy szkoleniowe lub korzystanie z rozwiązań opartych na platformach, takich jak platforma rozwoju modelu Qianfan lub innych dostawców. Yao Sijia, ekspert od aplikacji AI w Zhaopin, stwierdził, że chociaż Zhaopin ma własną ramę szkoleniową, wybrali platformę rozwoju modelu Qianfan do destylacji modelu z trzech głównych powodów:
- Kompleksowe wsparcie: Platforma rozwoju modelu Qianfan zapewnia wiodące w branży wsparcie dla destylacji modelu, głęboko optymalizując cały łańcuch techniczny wokół scenariuszy destylacji.
- Kontrola kosztów: W porównaniu z niezależnym zakupem i utrzymaniem sprzętu, platforma rozwoju modelu Qianfan oferuje znaczne korzyści w zakresie kontroli kosztów i bardziej elastycznej alokacji zasobów.
- Dogłębne zrozumienie scenariuszy biznesowych: Profesjonalny zespół rozwiązań Baidu dogłębnie rozumie podstawowe wymagania, takie jak “dokładne dopasowanie” i “wysoka współbieżność odpowiedzi” w domenie rekrutacji i współpracuje z firmami w celu znalezienia rozwiązań.
Yao Sijia dodał, że Zhaopin będzie nadal pionierem scenariuszy AI+ rekrutacji, wykorzystując technologię Reinforcement Learning Fine-Tuning (RFT) Qianfan, aby jeszcze bardziej poprawić wydajność modelu. Planują zbadać, czy model nauczycielski można jeszcze bardziej ulepszyć i czy lepsze mechanizmy nagradzania mogą zoptymalizować już wydestylowane modele studenckie w celu poprawy dokładności. Qianfan jest pierwszą platformą w Chinach, która wprowadziła do produkcji wiodące metody uczenia się ze wzmocnieniem, takie jak RFT i GRPO. Przekształcając te najnowocześniejsze metody uczenia się ze wzmocnieniem w możliwe do wdrożenia rozwiązania, Qianfan oferuje firmom takim jak Zhaopin więcej możliwości optymalizacji wydajności modelu.
Jednak destylacja modelu optymalizuje jedynie wydajność pojedynczego modelu. W złożonych scenariuszach biznesowych konieczne jest precyzyjne dopasowanie różnorodnych możliwości AI do scenariuszy.
Rozważmy smartfon. W scenariuszach rozpoznawania intencji, takich jak asystenci połączeń, lekkie modele są zwykle używane do szybkiego identyfikowania problemów użytkownika. W scenariuszach pytań i odpowiedzi dotyczących wiedzy ogólnej, takich jak zapytania o pogodę i wyszukiwanie wiadomości, modele średniej wielkości są zwykle używane do szybkiego udzielania dokładnych i pouczających odpowiedzi. W scenariuszach analizy danych i rozumowania logicznego, które wymagają głębokiego myślenia, zwykle używane są duże modele.
Oznacza to, że smartfon musi elastycznie wywoływać wiele LLM w różnych scenariuszach zapotrzebowania użytkowników. Dla producentów telefonów stanowi to wyzwania, takie jak wysokie koszty wyboru modelu i złożone procesy wywoływania ze względu na różne protokoły interfejsu modelu.
Aby rozwiązać te problemy branżowe, platforma rozwoju modelu Qianfan wprowadziła do produkcji interfejsy routingu modelu. W porównaniu z bezpośrednim używaniem oryginalnych modeli fabrycznych, zapewnia niestandardowy rozwój i gotowe do użycia możliwości wywoływania API, pomagając firmom zaoszczędzić nakład pracy inżynierskiej i czas rozwoju, jednocześnie redukując koszty. Ponadto, platforma rozwoju modelu Qianfan obsługuje elastyczne wywoływanie dla użytkowników na dużą skalę, zapewniając szybkość i stabilność nawet przy wysokiej częstotliwości i wysokiej współbieżności żądań wywołań.
Na poziomie modelu, możliwości techniczne, takie jak destylacja modelu i wywoływanie wielu modeli, pomagają coraz większej liczbie firm optymalizować alokację zasobów, umożliwiając precyzyjne dopasowanie możliwości AI do scenariuszy biznesowych przy jednoczesnym zmniejszeniu kosztów. Na poziomie aplikacji, MCP i A2A, które wzbudziły duże zainteresowanie branży, dodatkowo redukują koszty prób i błędów AI, pomagają firmom optymalizować paradygmaty współpracy aplikacji i zmieniają nieefektywny model “wymyślania koła na nowo” w tradycyjnym rozwoju agentów.
“Kombinacja” od modeli do aplikacji to idealna odpowiedź na pomoc LLM w pokonaniu “dylematu ROI”.
Od Zamkniętego do Otwartego: Obniżanie Bariery Eksperymentowania z AI
Od 2023 r. kluczowe słowo dla wdrażania aplikacji AI stopniowo przesunęło się na Agent. Do 2024 r. prawie wszystkie firmy omawiały aplikacje i rozwój agentów. Jednak agenci w tamtym czasie nie mieli prawdziwych możliwości planowania i opierali się głównie na perspektywach przepływu pracy, łącząc LLM z podstawowymi aplikacjami poprzez zszywanie lub proceduryzowanie komponentów za pomocą reguł opartych na wiedzy eksperckiej.
Wraz z niedawnym wzrostem protokołów MCP i A2A, rok 2025 stał się prawdziwym “zerowym rokiem agenta”. W szczególności wpływ MCP na dziedzinę AI jest porównywalny z wpływem protokołu TCP/IP na Internet.
Zhou Ze’an, dyrektor generalny Biyao Technology, stwierdził w wywiadzie dla InfoQ, że podstawowa wartość MCP dla dziedziny AI odzwierciedla się w trzech wymiarach:
- Standaryzacja wywoływania narzędzi LLM: W przeszłości każda firma miała własną implementację Function Call, z istotnymi różnicami między nimi. MCP ustanawia jednolity standard dostępu, umożliwiając prawdziwą standaryzację schematów planowania aplikacji między klientami a serwerami. Dodatkowo, MCP umożliwia interakcję nie tylko między LLM, które obsługują Function Call, ale także z LLM, które nie mają tej funkcji.
- Rozwiązywanie problemów z współpracą narzędzi: Jednolity standard protokołu MCP sprawia, że budowa usług agentów jest bardziej zróżnicowana. Programiści muszą brać pod uwagę nie tylko własnych agentów i usługi MCP, ale także sposób integracji możliwości zewnętrznych w celu uzyskania bardziej zaawansowanych funkcji agenta.
- Kontrolowanie całego kontekstu za pomocą LLM, co skutkuje bardziej przyjazną dla użytkownika interakcją: Podczas budowania procesów może wykorzystywać szerszy zakres źródeł danych do rozwiązywania złożonych zadań, które wcześniej były niemożliwe.
“Ogólnie rzecz biorąc, protokół MCP znacznie obniża barierę dla firm chcących wdrożyć technologię AI. W przeszłości proces integracji technicznej w celu uzyskania dostępu do agentów był złożony. Teraz firmy nie muszą już dogłębnie rozumieć złożonych szczegółów implementacji technicznej, ale muszą jedynie wyjaśnić swoje potrzeby biznesowe” - powiedział Zhou Ze’an. Biyao Technology w pełni otworzyła możliwości przetwarzania dokumentów swojego własnego pionowego LLM branży zasobów ludzkich “Bole” za pośrednictwem protokołu MCP, w tym umowy, życiorysy i PPT, i stała się jednym z pierwszych deweloperów korporacyjnych, którzy uruchomili komponenty MCP na platformie rozwoju aplikacji Qianfan. Obecnie każda firma lub indywidualny programista może bezpośrednio wywoływać swoje profesjonalne możliwości na platformie Qianfan.
“Baidu pomoże programistom aktywnie i kompleksowo wykorzystać MCP.” Na konferencji Create2025 Baidu AI Developer Conference, która odbyła się 25 kwietnia, platforma Qianfan oficjalnie uruchomiła usługi MCP na poziomie przedsiębiorstwa.Założyciel Baidu, Li Yanhong, zademonstrował przypadek wykorzystania MCP przez platformę Qianfan, umożliwiając programistom elastyczny dostęp do 1000 serwerów MCP, w tym wyszukiwarki AI Baidu, map i Wenku, podczas tworzenia agentów. Ponadto Qianfan uruchomił narzędzie low-code do tworzenia serwerów MCP, umożliwiając programistom łatwe tworzenie własnych serwerów MCP na Qianfan i publikowanie ich na Qianfan MCP Square jednym kliknięciem. Te serwery MCP będą również niezwłocznie indeksowane przez wyszukiwarkę Baidu, co pozwoli na ich odkrycie i wykorzystanie przez większą liczbę programistów.
W rzeczywistości Qianfan nieustannie rozwiązuje problem “ostatniej mili” wdrażania AI przed pojawieniem się protokołu MCP, pomagając firmom wydajnie i przy niskich barierach korzystać z zalet technologii AI oraz zapewniając dojrzałe rozwiązania dla wielu branż.
Na przykład, w branży inteligentnego domu firmy zazwyczaj borykają się z powszechnym problemem: jak zapewnić dokładne inteligentne usługi dla ogromnych modeli produktów? Wraz z przyspieszonym wdrażaniem LLM, coraz więcej firm wykorzystuje agentów do szybkiego dostarczania użytkownikom dokładnych i spersonalizowanych odpowiedzi. To jednak stwarza również nowe wyzwanie: jak rozwijać i zarządzać wieloma agentami? Marki inteligentnego domu zazwyczaj mają wiele różnych kategorii produktów i modeli. Budowanie agenta dla każdego produktu z osobna skutkowałoby nie tylko wysokimi kosztami rozwoju, ale także znacznymi kosztami zarządzania i utrzymania w późniejszych etapach.
Na przykład, wiodąca marka inteligentnego domu wykorzystała platformę rozwoju aplikacji Baidu AI Cloud Qianfan do traktowania nazw plików jako niezależnych wycinków i osadzania informacji o wycinkach nazw plików w każdym drobnym wycinku. Zamiast budować agenta dla każdego produktu z osobna, musieli jedynie posortować odpowiednią bazę wiedzy i zdefiniować nazwy modeli produktów. Następnie mogli użyć strategii automatycznego analizowania w ramach RAG platformy Qianfan, aby osiągnąć precyzyjne dopasowanie modeli produktów i punktów wiedzy.
Platforma rozwoju aplikacji Qianfan zapewnia również marce zestaw narzędzi operacyjnych do budowania stale ewoluującego inteligentnego centrum. Dzięki funkcji przepływu zwrotnego danych wszystkie rekordy interakcji z użytkownikami są przekształcane w materiały optymalizacyjne. Personel operacyjny może przeglądać częste problemy w czasie rzeczywistym i natychmiast interweniować w nieodkrytych punktach wiedzy, tworząc pętlę “operacja - informacja zwrotna - optymalizacja”. Ponadto, platforma rozwoju aplikacji Qianfan i Xiaodu AI Assistant wspólnie zbudowały ramy interakcji głosowej. Opierając się na tych ramach, marka może umożliwić sprzętowi “rozmawianie” bezpośrednio z użytkownikami, uzyskując bardziej naturalne, wydajne i spersonalizowane wrażenia interaktywne.
Od MCP do A2A, otwartość stała się nowym słowem kluczowym w ekosystemie aplikacji LLM. Otwartość jest również pierwotnym zamiarem platformy Qianfan. Od pierwszego dnia premiery w 2023 roku, Qianfan przyjął najbardziej otwartą postawę, aby uzyskać dostęp do bogactwa LLM stron trzecich. Obecnie Qianfan ma dostęp do ponad 100 modeli od ponad 30 dostawców modeli, obejmujących 11 rodzajów możliwości, takich jak tekst, obraz i głębokie rozumowanie, w tym modele stron trzecich, takie jak DeepSeek, LLaMA, Tongyi i Vidu. Zapewnia również pełen zakres Wenxin LLM, w tym nowo wydany natywny model multi-modalny Wenxin 4.5 Turbo i model głębokiego myślenia Wenxin X1 Turbo, a także wcześniej wydany model głębokiego myślenia Wenxin X1.
Dla firm, które chcą szybko wdrożyć technologię AI, Baidu AI Cloud stopniowo staje się pierwszym wyborem. Dane rynkowe są najlepszym dowodem. Obecnie platforma Qianfan obsługuje ponad 400 000 klientów, z penetracją ponad 60% w przedsiębiorstwach centralnych. Zgodnie z raportem China Large Model Bidding Project Monitoring and Insight Report (2025Q1), Baidu osiągnął podwójne pierwsze miejsce pod względem liczby dużych projektów ofertowych modelu i kwoty wygranych ofert w pierwszym kwartale: wygrywając 19 dużych projektów ofertowych modelu z ujawnioną kwotą projektu przekraczającą 450 milionów juanów, a wygrane duże projekty modelu pochodziły prawie wszystkie od klientów z centralnych przedsiębiorstw państwowych w branżach takich jak energetyka i finanse.
Karta wyników Baidu AI Cloud również wysyła sygnał na zewnątrz: w tej długoterminowej bitwie o wdrożenie technologii AI, tylko te rozwiązania, które naprawdę rozumieją problemy branżowe i mogą pomóc firmom zmniejszyć koszty prób i błędów, są najbardziej istotne.