MCP Revolutie: AI Herdefinieert en Angst Vermindert

De Opkomst van MCP en A2A: Een Paradigmaverschuiving

De opkomst van Model Context Protocol (MCP) en Agent2Agent (A2A) protocollen in 2025 markeert een cruciaal moment in de evolutie van AI-applicatieontwikkeling. MCP streeft naar het standaardiseren van interfaces om datasilo’s te doorbreken, waardoor LLM’s efficiënt toegang krijgen tot externe bronnen en een naadloze gegevensstroom tussen systemen en platforms wordt gefaciliteerd. A2A bevordert verder een naadloze interactie tussen agenten, waardoor samenwerking en communicatie worden gestimuleerd om samenhangende, geïntegreerde systemen te vormen.

De verschuiving van MCP naar A2A onderstreept de groeiende nadruk op ‘openheid’ als een belangrijke drijfveer in het AI-applicatie-ecosysteem. Deze openheid omvat zowel technische interoperabiliteit als een collaboratieve geest. Vanuit een breder perspectief weerspiegelt deze transformatie een natuurlijke progressie in technologieontwikkeling: een overgang van aanvankelijk enthousiasme naar praktische implementatie, en van geïsoleerde innovatie naar collaboratieve ecosysteemevolutie.

Historisch gezien is de waarde van LLM’s onevenredig toegeschreven aan parameterschaal en standalone mogelijkheden. Vandaag de dag adresseren MCP en A2A het cruciale probleem van de interconnectiviteit tussen AI-applicaties en hervormen ze de concurrentiedynamiek van het LLM-ecosysteem. AI-applicatieontwikkeling evolueert van een ‘lone wolf’-benadering naar een model van onderlinge verbondenheid. Dit vereist een herbeoordeling van de AI-waarde voor CTO’s, waarbij de focus verschuift van het louter nastreven van modelgrootte en ‘all-in’-strategieën naar het benutten van platforms die diverse AI-mogelijkheden verbinden. Het doel is om AI organisch in te bedden in bestaande bedrijfsprocessen en productiesystemen, de algehele efficiëntie te verbeteren door middel van samenwerking en standaardisatie, kritieke problemen op te lossen met minimale computationele middelen en het ‘ROI-dilemma’ te overwinnen.

De Plaag van Verspilde Rekenkracht en Verkeerd Uitgelijnde Scenario’s

Het onvermogen om de bottleneck van hoge investeringen en lage output te overwinnen, heeft de implementatie van LLM’s al lang geplaagd. Dit fenomeen weerspiegelt diepgewortelde tegenstrijdigheden in de AI-ontwikkeling. Ten eerste is er aanzienlijke verspilling van rekenkracht. Data geeft aan dat algemene computercentra op bedrijfsniveau slechts 10-15% worden benut, waardoor enorme hoeveelheden rekenkracht ongebruikt blijven. Ten tweede is er een verkeerde afstemming van scenario’s waarbij de modelprestaties niet voldoen aan de werkelijke behoeften van bedrijfsscenario’s.

Een veelvoorkomend probleem is de ‘overkill’ van het gebruik van grote modellen voor lichtgewicht taken. Sommige bedrijven vertrouwen overmatig op algemene LLM’s voor eenvoudige toepassingen. Bovendien creëert het unieke karakter van bedrijfsscenario’s dilemma’s. Het gebruik van grote modellen brengt hoge computationele kosten en lange inferentietijden met zich mee. Kiezen voor kleinere modellen voldoet mogelijk niet aan de bedrijfsvereisten. Dit conflict is vooral duidelijk in bedrijfsscenario’s die gespecialiseerde domeinkennis vereisen.

Denk aan het scenario van talent-baan matching in de wervingsindustrie. Bedrijven hebben modellen nodig met diepgaande redeneervermogens om de complexe relaties tussen cv’s en functieomschrijvingen te begrijpen, terwijl ze ook snelle reactietijden eisen. De lange inferentietijden van algemene LLM’s kunnen de gebruikerservaring aanzienlijk verslechteren, vooral onder hoge-concurrentie gebruikersvragen.

Om prestaties en efficiëntie in evenwicht te brengen, heeft modeldistillatie de afgelopen jaren aan populariteit gewonnen. De lancering van DeepSeek-R1 eerder dit jaar heeft de waarde van deze techniek verder benadrukt. Bij het afhandelen van complexe redeneertaken legt modeldistillatie het ‘keten van denken’-patroon van DeepSeek-R1 vast, waardoor lichtgewicht studentenmodellen de redeneervermogens ervan kunnen erven in plaats van alleen de outputresultaten na te bootsen.

Zo gebruikte Zhaopin, een toonaangevend wervingsplatform, DeepSeek-R1 (600+ miljard parameters) als een leraarmodel om de keten van denken en de logica van besluitvorming te distilleren die wordt gebruikt bij talent-baan matching taken. Ze gebruikten het Baidu AI Cloud Qianfan modelontwikkelingsplatform om het leraarmodel te distilleren en over te brengen naar het ERNIE Speed model (10+ miljard parameters), het studentenmodel. Deze aanpak bereikte prestaties die vergelijkbaar waren met het leraarmodel (DeepSeek-R1 behaalde 85% nauwkeurigheid in redeneerlinkresultaten, terwijl het studentenmodel meer dan 81% behaalde), verbeterde de inferentiesnelheid tot een acceptabel niveau en verlaagde de kosten tot 30% van het origineel, terwijl 1x snellere snelheden werden bereikt dan de volwaardige DeepSeek-R1.

Momenteel hanteren bedrijven doorgaans twee benaderingen voor modeldistillatie: het bouwen van een compleet technisch systeem van infrastructuur en GPU’s tot trainingsframeworks, of het gebruiken van platformgebaseerde oplossingen zoals het Qianfan modelontwikkelingsplatform of andere leveranciers. Yao Sijia, een AI-applicatie-expert bij Zhaopin, verklaarde dat hoewel Zhaopin zijn eigen trainingsframework heeft, ze het Qianfan modelontwikkelingsplatform kozen voor modeldistillatie vanwege drie belangrijke overwegingen:

  • Uitgebreide ondersteuning: Het Qianfan modelontwikkelingsplatform biedt toonaangevende ondersteuning voor modeldistillatie, waarbij de hele technische keten rond distillatiescenario’s diepgaand wordt geoptimaliseerd.
  • Kostenbeheersing: Vergeleken met het zelfstandig aanschaffen en onderhouden van hardware, biedt het Qianfan modelontwikkelingsplatform aanzienlijke voordelen op het gebied van kostenbeheersing en een flexibelere toewijzing van middelen.
  • Diepgaand begrip van bedrijfsscenario’s: Het professionele oplossingen team van Baidu begrijpt diepgaand de kernvereisten zoals ‘nauwkeurige matching’ en ‘hoge-concurrentie respons’ in het wervingsdomein en werkt samen met bedrijven om oplossingen te verkennen.

Yao Sijia voegde eraan toe dat Zhaopin zal blijven pionieren met AI+ wervingscenario’s, waarbij Qianfan’s Reinforcement Learning Fine-Tuning (RFT) technologie wordt gebruikt om de modelprestaties verder te verbeteren. Ze zijn van plan om te onderzoeken of het leraarmodel verder kan worden verbeterd en of betere beloningsmechanismen reeds gedistilleerde studentenmodellen kunnen optimaliseren om de nauwkeurigheid te verbeteren. Qianfan is het eerste platform in China dat toonaangevende reinforcement learning methoden zoals RFT en GRPO productiseert. Door deze geavanceerde reinforcement learning methoden om te zetten in implementeerbare oplossingen, biedt Qianfan bedrijven zoals Zhaopin meer mogelijkheden om de modelprestaties te optimaliseren.

Modeldistillatie optimaliseert echter alleen de prestaties van een enkel model. In complexe bedrijfsscenario’s is het noodzakelijk om diverse AI-mogelijkheden precies af te stemmen op scenario’s.

Neem een smartphone. In scenario’s voor intentieherkenning zoals oproepassistenten, worden doorgaans lichtgewicht modellen gebruikt om snel problemen van gebruikers te identificeren. Voor algemene kennis Q&A scenario’s zoals weervragen en nieuws ophalen, worden doorgaans middelgrote modellen gebruikt om snel nauwkeurige en informatieve antwoorden te geven. In data-analyse en logische redeneerscenario’s die diepgaand denken vereisen, worden doorgaans grote modellen gebruikt.

Dit betekent dat een smartphone flexibel meerdere LLM’s moet kunnen aanroepen in verschillende scenario’s van gebruikersvraag. Voor telefoonfabrikanten levert dit uitdagingen op, zoals hoge modelselectiekosten en complexe aanroepprocessen als gevolg van verschillende modelinterfaceprotocollen.

Om deze pijnpunten in de industrie aan te pakken, heeft het Qianfan modelontwikkelingsplatform modelrouteringsinterfaces geproduceerd. Vergeleken met het direct gebruiken van originele fabrieksmodellen, biedt het productmogelijkheden voor aangepaste ontwikkeling en kant-en-klare API-aanroepen, waardoor bedrijven engineering werklast en ontwikkeltijd besparen en de kosten worden verlaagd. Bovendien ondersteunt het Qianfan modelontwikkelingsplatform flexibele aanroepen voor grootschalige gebruikers, waardoor snelheid en stabiliteit worden gegarandeerd, zelfs onder hoge frequentie en hoge-concurrentie aanroepvragen.

Op modelniveau helpen technische mogelijkheden zoals modeldistillatie en aanroepen van meerdere modellen steeds meer bedrijven om de toewijzing van middelen te optimaliseren, waardoor AI-mogelijkheden precies kunnen worden afgestemd op bedrijfsscenario’s en de kosten worden verlaagd. Op applicatieniveau verminderen MCP en A2A, die aanzienlijke aandacht van de industrie hebben gekregen, verder de AI-trial-and-error kosten, helpen ze bedrijven applicatiesamenwerkings paradigma’s te optimaliseren en veranderen ze het inefficiënte model van ‘het wiel opnieuw uitvinden’ in traditionele agentontwikkeling.

Een ‘combinatie punch’ van modellen tot applicaties is het perfecte antwoord om LLM’s te helpen het ‘ROI-dilemma’ te overwinnen.

Van Gesloten naar Open: Het Verlagen van de Drempel voor AI Experimenteren

Sinds 2023 is het sleutelwoord voor de implementatie van AI-applicaties geleidelijk verschoven naar Agent. In 2024 bespraken bijna alle bedrijven Agent applicaties en ontwikkeling. Agents misten echter op dat moment echte planningsmogelijkheden en waren voornamelijk gebaseerd op workflow perspectieven, waarbij LLM’s werden verbonden met basisapplicaties door componenten te stikken of te proceduraliseren via door experts gestuurde regels.

Met de recente opkomst van de MCP- en A2A-protocollen is 2025 het ware ‘Agent Jaar Nul’ geworden. Met name de impact van MCP op het AI-veld is vergelijkbaar met die van het TCP/IP-protocol op het internet.

Zhou Ze’an, CEO van Biyao Technology, verklaarde in een interview met InfoQ dat de kernwaarde van MCP voor het AI-veld wordt weerspiegeld in drie dimensies:

  • Standaardisatie van LLM-tool aanroepen: In het verleden had elk bedrijf zijn eigen Function Call implementatie, met aanzienlijke verschillen ertussen. MCP legt een uniforme toegangsstandaard vast, waardoor echte standaardisatie van applicatieplanningsschema’s tussen clients en servers mogelijk wordt. Bovendien maakt MCP interactie mogelijk, niet alleen tussen LLM’s die Function Call ondersteunen, maar ook met LLM’s die deze functie niet hebben.
  • Het oplossen van uitdagingen op het gebied van toolsamenwerking: De uniforme standaard van het MCP-protocol maakt de constructie van Agent-services diverser. Ontwikkelaars moeten niet alleen hun eigen Agents en MCP-services overwegen, maar ook hoe ze externe mogelijkheden kunnen integreren om krachtigere Agent-functies te bereiken.
  • Het controleren van de hele context via LLM’s, wat resulteert in een gebruiksvriendelijkere interactie: Bij het bouwen van processen kan het een breder scala aan gegevensbronnen gebruiken om complexe taken op te lossen die voorheen onmogelijk waren.

‘Over het algemeen verlaagt het MCP-protocol de drempel voor bedrijven om AI-technologie te adopteren aanzienlijk. In het verleden was het technische integratieproces voor toegang tot Agents complex. Nu hoeven bedrijven niet langer diepgaand inzicht te hebben in complexe technische implementatiedetails, maar hoeven ze alleen hun zakelijke behoeften te verduidelijken’, aldus Zhou Ze’an. Biyao Technology heeft de documentverwerkingsmogelijkheden van zijn zelf ontwikkelde LLM ‘Bole’ voor de personeelssector volledig geopend via het MCP-protocol, inclusief contracten, cv’s en PPT’s, en werd een van de eerste zakelijke ontwikkelaars die MCP-componenten lanceerde op het Qianfan-applicatieontwikkelingsplatform. Momenteel kan elk bedrijf of individuele ontwikkelaar zijn professionele mogelijkheden direct aanroepen op het Qianfan-platform.

‘Baidu zal ontwikkelaars actief en uitgebreid helpen om MCP te omarmen.’ Tijdens de Create2025 Baidu AI Developer Conference, die op 25 april werd gehouden, lanceerde het Qianfan-platform officieel MCP-services op bedrijfsniveau. Baidu-oprichter Li Yanhong demonstreerde de casus van het Qianfan-platform dat MCP omarmt, waardoor ontwikkelaars flexibel toegang hebben tot 1000 MCP-servers, waaronder Baidu AI-zoekopdrachten, kaarten en Wenku, bij het maken van Agents. Bovendien lanceerde Qianfan een low-code tool voor het maken van MCP-servers, waardoor ontwikkelaars eenvoudig hun eigen MCP-servers op Qianfan kunnen ontwikkelen en met één klik kunnen publiceren naar het Qianfan MCP Square. Deze MCP-servers worden ook onmiddellijk geïndexeerd door Baidu-zoekopdrachten, waardoor ze door meer ontwikkelaars kunnen worden ontdekt en gebruikt.

In feite heeft Qianfan continu het probleem van de laatste mijl van AI-implementatie opgelost vóór de opkomst van het MCP-protocol, waardoor bedrijven efficiënt en met lage drempels kunnen genieten van de voordelen van AI-technologie en volwassen oplossingen kunnen bieden voor meerdere industrieën.

In de smart home-industrie worden bedrijven bijvoorbeeld geconfronteerd met een gemeenschappelijk probleem: hoe nauwkeurige intelligente diensten te leveren voor enorme productmodellen? Met de versnelde implementatie van LLM’s gebruiken steeds meer bedrijven Agents om gebruikers snel nauwkeurige en gepersonaliseerde antwoorden te geven. Dit brengt echter ook een nieuwe uitdaging met zich mee: hoe talloze Agents te ontwikkelen en te beheren? Smart home-merken hebben doorgaans veel verschillende productcategorieën en modellen. Het bouwen van een Agent voor elk product afzonderlijk zou niet alleen resulteren in hoge ontwikkelingskosten, maar ook in aanzienlijke beheer- en onderhoudskosten in de latere stadia.

Een toonaangevend smart home-merk gebruikte bijvoorbeeld het Baidu AI Cloud Qianfan-applicatieontwikkelingsplatform om bestandsnamen als onafhankelijke plakken te behandelen en informatie over de bestandsnaamplak in elke fijnkorrelige plak in te bedden. In plaats van voor elk product afzonderlijk een Agent te bouwen, hoefden ze alleen de bijbehorende kennisbank uit te zoeken en de productmodelnamen te definiëren. Vervolgens konden ze de RAG-framework automatische parsing strategie van het Qianfan-platform gebruiken om een precieze matching van productmodellen en kennispunten te bereiken.

Het Qianfan-applicatieontwikkelingsplatform biedt het merk ook een set operationele tools om een continu evoluerende intelligente hub te bouwen. Via de data-backflow functie worden alle interactie records van gebruikers omgezet in optimalisatiematerialen. Operationeel personeel kan realtime veelvoorkomende problemen bekijken en onmiddellijk ingrijpen op onontdekte kennispunten, waardoor een ‘operatie - feedback - optimalisatie’ gesloten kringloop ontstaat. Bovendien hebben het Qianfan-applicatieontwikkelingsplatform en Xiaodu AI Assistant gezamenlijk een voice-interactie framework gebouwd. Vertrouwend op dit framework kan het merk hardware in staat stellen om rechtstreeks met gebruikers te ‘praten’, waardoor een meer natuurlijke, efficiënte en gepersonaliseerde interactieve ervaring wordt bereikt.

Van MCP tot A2A is openheid een nieuw sleutelwoord geworden in het LLM-applicatie-ecosysteem. Openheid is ook de oorspronkelijke bedoeling van het Qianfan-platform. Vanaf de eerste dag van de release in 2023 heeft Qianfan de meest open houding aangenomen om toegang te krijgen tot een schat aan LLM’s van derden. Momenteel heeft Qianfan toegang tot meer dan 100 modellen van meer dan 30 modelleveranciers, die 11 soorten mogelijkheden dekken, zoals tekst, afbeeldingen en diepgaand redeneren, waaronder modellen van derden, zoals DeepSeek, LLaMA, Tongyi en Vidu. Het biedt ook een volledig assortiment Wenxin LLM’s, waaronder het onlangs uitgebrachte native multi-modale model Wenxin 4.5 Turbo en het deep thinking model Wenxin X1 Turbo, evenals het eerder uitgebrachte deep thinking model Wenxin X1.

Voor bedrijven die snel AI-technologie willen implementeren, wordt Baidu AI Cloud geleidelijk de eerste keuze. Marktdata is het beste bewijs. Momenteel bedient het Qianfan-platform meer dan 400.000 klanten, met een penetratiegraad van meer dan 60% in centrale ondernemingen. Volgens het China Large Model Bidding Project Monitoring and Insight Report (2025Q1) behaalde Baidu een dubbele eerste plaats in het aantal grote modelbiedingsprojecten en het bedrag aan gewonnen biedingen in het eerste kwartaal: het won 19 grote modelbiedingsprojecten met een bekendgemaakt projectbedrag van meer dan 450 miljoen yuan, en de gewonnen grote modelprojecten waren bijna allemaal afkomstig van centrale staatsbedrijven in industrieën zoals energie en financiën.

Het rapport van Baidu AI Cloud geeft ook een signaal af aan de buitenwereld: in deze lange termijn strijd om de implementatie van AI-technologie zijn alleen die oplossingen die de pijnpunten in de industrie echt begrijpen en bedrijven kunnen helpen de trial-and-error kosten te verlagen, het meest vitaal.