In een landschap waar kunstmatige intelligentie zich razendsnel ontwikkelt, ontstaat er een nieuwe standaard voor modelinteractie. Model Context Protocol (MCP), een open standaard geïntroduceerd door Anthropic in november 2024, is snel een centraal punt geworden voor zowel ontwikkelaars als ondernemingen. Het primaire doel van MCP is het tot stand brengen van veilige, bidirectionele verbindingen tussen grote taalmodellen (LLM’s) en diverse databronnen, waardoor inconsistenties in toolimplementatie worden aangepakt en het delen van modellen wordt gefaciliteerd.
De Opkomst van MCP als Industriestandaard
Binnen slechts enkele maanden heeft MCP aanzienlijke tractie gekregen in de AI-gemeenschap. Tijdens de Create2025 Baidu AI Developer Conference op 25 april onthulde Baidu-oprichter Robin Li twee baanbrekende modellen: Wenxin Large Model 4.5 Turbo en Deep Thinking Model X1 Turbo. Deze modellen werden vergezeld door diverse AI-applicaties, wat Baidu’s toewijding markeert om ontwikkelaars te helpen MCP volledig te omarmen.
De steun voor MCP reikt verder dan Baidu en omvat grote spelers zoals OpenAI, Google, Microsoft, Amazon, Anthropic, Alibaba en Tencent. Deze wijdverspreide adoptie betekent dat MCP de ‘HTTP van de AI-wereld’ wordt, een universele standaard vaststellend voor hoe modellen en databronnen interageren.
Tijdens de conferentie lanceerde Baidu Intelligent Cloud officieel de eerste enterprise-grade MCP-service in China. Deze service biedt ondernemingen en ontwikkelaars toegang tot meer dan 1.000 MCP-servers. Bovendien stelt het platform ontwikkelaars in staat om hun eigen MCP-servers te creëren op Qianfan, Baidu’s AI-ontwikkelingsplatform, en deze te publiceren naar de MCP Square, met gratis hosting en indexering via Baidu Search.
Baidu Cloud’s Enterprise-Gerichte Strategie
Hoewel diverse leveranciers MCP omarmen, verschillen hun benaderingen. Baidu Intelligent Cloud richt zich op de bedrijfsmarkt, met als doel om zoveel mogelijk ontwikkelaars vroegtijdig te betrekken. Deze strategie omvat het verrijken van de MCP Square en het benutten van Baidu Search om verkeer te genereren, waardoor een robuust MCP-ecosysteem wordt bevorderd.
De aanpak die Baidu hanteert met zijn MCP-aanbod is gericht op wat zakelijke klanten nodig hebben en waar ze op zullen reageren. Het bedrijf is goed gepositioneerd om te profiteren van zijn bestaande voetafdruk bij zakelijke klanten om hen de wereld van MCP binnen te leiden.
De Noodzaak van MCP in het AI-Landschap
De opkomst van MCP adresseert kritieke uitdagingen bij het implementeren van LLM’s, met name in bedrijfsomgevingen. Voorheen was de toepassing van LLM’s voornamelijk beperkt tot chatbot-achtige scenario’s. Bredere bedrijfstoepassingen vereisten uitgebreide aanpassingen, waardoor het ontwikkelingsproces complex en resource-intensief was, zelfs met de toolchains die werden geleverd door leveranciers zoals Baidu Intelligent Cloud.
Aangezien 2025 wordt geprezen als het jaar van de AI-agent, wordt verwacht dat LLM’s verder zullen evolueren dan louter denken tot het plannen en autonoom uitvoeren van taken. In dit paradigma dient de LLM als de ‘hersenen’, die ‘ledematen’ en ‘zintuigen’ vereisen om specifieke taken te voltooien.
De traditionele benadering van het aanpassen van elke AI-applicatie vereist het integreren van ‘M×N’-tools, waarbij elke AI-applicatie moet interfacen met tal van tools. MCP vereenvoudigt dit door de interactie tussen LLM’s en tools te standaardiseren, waardoor de complexiteit wordt teruggebracht tot ‘M+N’. Deze standaardisatie is cruciaal voor het schalen van AI-applicaties over verschillende bedrijfsfuncties.
Stroomlijnen van Enterprise-Level AI-Applicaties
Baidu Group Executive Vice President en President van Baidu Intelligent Cloud Business Group, Shen Dou, benadrukte dat het toepassen van LLM’s meer inhoudt dan simpele aanroepingen. “Het vereist het verbinden van verschillende componenten en tools en het uitvoeren van ingewikkelde orkestratie. Vaak zijn verdere verfijning en aanpassing van modellen nodig om de prestaties te verbeteren,” merkte hij op.
Shen Dou legde verder uit dat het bouwen van enterprise-grade applicaties een zorgvuldige afweging vereist van rekenprestaties, stabiliteit, schaalbaarheid en beveiliging. Hij ziet de implementatie van een applicatie als een ‘systeem’-bouwproces.
Enterprise-applicaties vereisen hogere normen en een lagere fouttolerantie in vergelijking met consumentenapplicaties. Volgens een industrie-expert verbruikt applicatieontwikkeling 90% van de projecttijd, omdat, hoewel modellen gestandaardiseerd zijn, applicaties zeer variabel zijn.
Deze inspanningen omvatten over het algemeen vier belangrijke taken: het aanvullen van professionele kennis, het orkestreren van bedrijfsprocessen, het uitbreiden van intelligente tools en het integreren van bedrijfssystemen. Door deze taken te omvatten in een platform dat kant-en-klare functionaliteit biedt, kunnen bedrijven RAG (Retrieval-Augmented Generation) inzetten om expertkennis te integreren, workflows gebruiken om bedrijfsprocessen te orkestreren en intelligente agents gebruiken in combinatie met MCP om bestaande systemen en activa te benutten.
MCP staat klaar om te voldoen aan de verwachtingen van de industrie voor het vereenvoudigen van de implementatie van LLM’s in praktische toepassingen.
Overbruggen van de Kloof in Enterprise-Level Agents
Zoals Shen Dou aangaf, vereist de implementatie van LLM’s full-stack, ondersteuning op systeemniveau, van de onderliggende rekenkracht tot applicaties. Dit omvat krachtige hardware en clusteroptimalisatie, evenals flexibele ontwikkelingstoolchains en scenario-gebaseerde oplossingen.
Baidu Intelligent Cloud’s systeemniveau-mogelijkheden omvatten een rekenkrachtlaag, inclusief het recent aangekondigde 30.000-kaart Kunlunxin-cluster en het geüpgradede Baige GPU-rekenplatform. De modelontwikkelingslaag bevat meer dan 100 modellen op het Qianfan-platform, waaronder Baidu’s Wenxin 4.5Turbo en Wenxin X1 Turbo, evenals modellen van derden zoals DeepSeek, Ilama en Vidu.
In de applicatieontwikkelingslaag biedt Baidu Intelligent Cloud Qianfan Enterprise-Level Agent en MCP-services, waardoor het vermogen van agents om complexe problemen op te lossen wordt verbeterd. Deze services worden aangevuld met een uitgebreide modelontwikkelingstoolchain die de aanpassing en fijnafstemming van deep-thinking modellen en multi-modale modellen ondersteunt.
Baidu Intelligent Cloud richt zich op de applicatieontwikkelingslaag, met aanzienlijke updates aan de Qianfan-platform’s enterprise-level agent ontwikkelingstoolchain. Het platform introduceert de nieuwe inference-based intelligent agent, Intelligent Agent Pro, die de mogelijkheden van snelle vraag beantwoording tot diepe beraadslaging verbetert, en ondersteunt aangepaste intelligent agents voor elk bedrijf.
Real-World Applicaties van Baidu’s MCP-Ecosysteem
Denk bijvoorbeeld aan Sewage Treasure, dat Qianfan Agentic RAG-mogelijkheden gebruikt om bedrijfsspecifieke gegevens en kennisbanken te combineren. Hierdoor kunnen agents retrieval strategieën formuleren op basis van een begrip van taken, waardoor model hallucinaties aanzienlijk worden verminderd.
Intelligent Agent Pro ondersteunt ook de Deep Research-modus, waardoor agents autonoom complexe taken kunnen plannen, informatie kunnen filteren en organiseren en verkennende kennis kunnen verzamelen door webpagina’s te bekijken. Het ondersteunt ook het gebruik van verschillende tools om diagrammen te maken, rapporten te schrijven en gestructureerde en informatieve professionele rapporten te genereren.
MCP stelt ontwikkelaars en ondernemingen in staat om industriële gegevens en tools beter te benutten bij het ontwikkelen van agents, waardoor kritieke hiaten in enterprise-level agent mogelijkheden worden opgevuld.
Ontwikkelaars kunnen MCP op twee manieren omarmen: door hun resources, gegevens en mogelijkheden in MCP-formaat aan te bieden voor gebruik door AI-applicaties, of door bestaande MCP-server resources te benutten bij het ontwikkelen van AI-applicaties. Beide benaderingen verminderen de ontwikkelingsinspanning en verbeteren de mogelijkheden aanzienlijk.
Baidu Intelligent Cloud’s Qianfan-platform is het eerste grote modelplatform dat MCP ondersteunt. Vóór MCP waren grote modellen en tools verspreid en ontbrak het aan standaardisatie. MCP bevordert interconnectie en faciliteert de welvaart van het ecosysteem.
Het Competitieve Landschap van MCP
MCP, en grote modellen in het algemeen, vertegenwoordigen een concurrentie tussen platformen en ecosystemen. In de vroege stadia van nieuwe technologieën zijn verschillende paradigma’s onvolwassen, wat end-to-end optimalisatie vereist om optimale prestaties te bereiken. Dit verklaart waarom de implementatie van grote model applicaties sterk afhankelijk is van toonaangevende leveranciers.
Voor deze leveranciers ligt de uitdaging niet in het uitblinken in één gebied, maar in het hebben van geen significante zwakheden. Ze moeten robuuste platformmogelijkheden opbouwen en bloeiende ecosystemen bevorderen om meer deelnemers aan te trekken, waardoor het ene grote modelecosysteem tegen het andere wordt uitgespeeld.
Baidu’s strategie in het MCP-domein omvat drie stappen.
- Lancering van MCP-servers: Baidu was een van de eersten die MCP-servers lanceerde, waaronder ‘s werelds eerste e-commerce transactie MCP en search MCP. Ontwikkelaars kunnen Baidu AI Search en Baidu Youxuan’s MCP-servers toevoegen aan de ‘Universal Intelligent Agent Assistant’ op het Baidu Intelligent Cloud Qianfan-platform, waardoor intelligente agents het hele proces kunnen voltooien van informatie queries en product aanbevelingen tot directe order plaatsing. Dit combineert e-commerce transactieondersteuning met top-tier zoekmogelijkheden.
- Ondersteuning van MCP-serviceontwikkeling: Het Baidu Intelligent Cloud Qianfan-platform lanceerde officieel China’s eerste enterprise-grade MCP-service, met meer dan 1.000 MCP-servers beschikbaar voor bedrijven en ontwikkelaars. Ontwikkelaars kunnen hun eigen MCP-servers maken op Qianfan, deze publiceren naar de MCP Square, genieten van gratis hosting en exposure en gebruiksmogelijkheden krijgen via Baidu Search.
- AI Open Plan: Het Baidu Search Open Platform lanceerde het ‘AI Open Plan’ (sai.baidu.com) om verkeer en monetisatie mogelijkheden te bieden voor ontwikkelaars van intelligente agents, H5-applicaties, mini-programma’s en onafhankelijke apps via verschillende content- en service distributiemechanismen. Dit plan stelt gebruikers ook in staat om gemakkelijk de nieuwste AI-services te ontdekken en te gebruiken.
Door meer ondernemingen en ontwikkelaars in staat te stellen hun mogelijkheden te openen via MCP, bevordert Baidu zijn ecosysteem en stelt het zijn partners in staat om commerciële waarde te realiseren. De uiteindelijke winnaar in de grote model concurrentie is mogelijk niet noodzakelijkerwijs de meest technologisch geavanceerde leverancier, maar degene met het meest bloeiende ecosysteem.