De opkomst van MCP: AI-agentproductiviteit?

De techwereld gonst van MCP. Grote spelers in de large language model (LLM) ruimte springen aan boord, en op de aandelenmarkt zijn MCP-gerelateerde aandelen gewilde producten. Maar wat zit er achter de hype? Kan MCP echt een universele standaard worden? Wat is de businesslogica die LLM-bedrijven ertoe aanzet om het te adopteren? En het belangrijkste: luidt de opkomst van MCP het begin in van een nieuw tijdperk van productiviteit, aangedreven door AI-agenten?

MCP: Een USB-C voor AI-toepassingen

Het integreren van AI-modellen met externe tools is lange tijd een uitdaging geweest, geplaagd door hoge aanpassingskosten en een wankele systeemstabiliteit. Traditioneel moesten ontwikkelaars specifieke interfaces creëren voor elke nieuwe tool of gegevensbron, wat leidde tot verspilling van middelen en fragiele systeemarchitecturen.

Daar komt MCP om de hoek kijken, ontworpen om deze pijnpunten aan te pakken door interactieregels te standaardiseren. Met MCP hoeven AI-modellen en -tools alleen de standaarden van het protocol te volgen om plug-and-play-compatibiliteit te bereiken. Dit vereenvoudigt de complexiteit van de integratie, waardoor AI-modellen rechtstreeks toegang hebben tot databases, cloudservices en zelfs lokale toepassingen, zonder dat er individuele aanpassingslagen voor elke tool nodig zijn.

Het vermogen van MCP om ecosystemen te integreren is al duidelijk. De Claude desktop-applicatie van Anthropic bijvoorbeeld, wanneer deze via een MCP-server is verbonden met een lokaal bestandssysteem, kan de AI-assistent direct documentinhoud lezen en contextbewuste antwoorden genereren. Ondertussen kan de Cursor-ontwikkeltool, door meerdere MCP-servers (zoals Slack en Postgres) te installeren, naadloze multitasking binnen de IDE mogelijk maken.

MCP wordt wat Justin voor ogen had: een USB-C voor AI-toepassingen, een universele interface die het hele ecosysteem verbindt.

De reis van de release van MCP tot de huidige populariteit is een interessante.

Toen MCP in november 2024 werd uitgebracht, kreeg het al snel de aandacht van ontwikkelaars en bedrijven. Het explodeerde echter niet meteen in populariteit. Op dat moment was de waarde van intelligente agenten niet duidelijk. Zelfs als de ‘MxN’-integratiecomplexiteit van Agenten was opgelost, wist niemand of de AI-productiviteit zou toenemen.

Deze onzekerheid kwam voort uit de moeilijkheid om de snel evoluerende LLM-technologie te vertalen naar praktische toepassingen. Het internet stond vol met tegenstrijdige meningen over intelligente agenten, wat leidde tot weinig vertrouwen in het vermogen van AI om een echte impact te maken. Zelfs met enkele veelbelovende toepassingen die opdoken, was het moeilijk te zeggen of AI de productiviteit echt een boost gaf of slechts aan de oppervlakte krabde. Het zou tijd kosten om erachter te komen.

Het keerpunt kwam met de release van het framework van Manus en de aankondiging van OpenAI van ondersteuning voor MCP.

Manus demonstreerde de samenwerkingsmogelijkheden van meerdere Agenten en legde perfect vast wat gebruikers verwachtten van AI-productiviteit. Toen MCP een “dialoog-als-operatie”-ervaring mogelijk maakte via een chatinterface, waardoor gebruikers systeemniveau-acties zoals bestandsbeheer en gegevensherstel konden activeren door simpelweg commando’s in te voeren, begon er een verschuiving in perceptie: AI kon echt helpen bij echt werk.

Deze baanbrekende gebruikerservaring verhoogde de populariteit van MCP. De release van Manus was een belangrijke factor in het succes van MCP.

De steun van OpenAI verhief MCP verder tot de status van een “universele interface”.

Op 27 maart 2025 kondigde OpenAI een grote update aan van zijn belangrijkste ontwikkelingstool, AgentSDK, die officieel het MCP-serviceprotocol ondersteunt. Met deze stap van de techgigant, die 40% van de wereldwijde modelmarkt controleert, begon MCP te lijken op een fundamentele infrastructuur zoals HTTP. MCP kwam officieel in de openbaarheid en de populariteit steeg enorm.

Dit maakte de droom van een “HTTP voor AI” mogelijk. Platforms zoals Cursor, Winsurf en Cline volgden het voorbeeld en adopteerden het MCP-protocol, en het Agent-ecosysteem dat rond MCP was gebouwd, groeide.

MCP: Komt er een Agent-ecosysteem aan?

Kan MCP in de toekomst echt de de facto standaard worden voor AI-interactie?

Op 11 maart debatteerden LangChain medeoprichter Harrison Chase en LangGraph hoofd Nuno Campos over de vraag of MCP de toekomstige standaard voor AI-interactie zou worden. Hoewel ze geen conclusie bereikten, wakkerde het debat veel verbeelding aan rond MCP.

LangChain lanceerde ook een online poll tijdens het debat. Verrassend genoeg steunde 40% van de deelnemers dat MCP de toekomstige standaard zou worden.

De overige 60% die niet op MCP stemden, suggereren dat de weg naar de toekomstige standaard voor AI-interactie niet gemakkelijk zal zijn.

Een grote zorg is de ontkoppeling tussen technische standaarden en commerciële belangen, zoals blijkt uit de acties van binnen- en buitenlandse spelers na de release van MCP.

Kort nadat Anthropic MCP vrijgaf, creëerde Google A2A (Agent to Agent).

Als MCP de weg vrijmaakte voor individuele intelligente agenten om gemakkelijk toegang te krijgen tot ‘resourcepunten’, was A2A bedoeld om een enorm communicatienetwerk te bouwen dat deze agenten met elkaar verbindt, waardoor ze met elkaar kunnen ‘praten’ en samenwerken.

Vanuit een onderliggend perspectief dingen zowel MCP als A2A naar de controle over het Agent-ecosysteem.

Dus, wat gebeurt er op de Chinese markt?

Meer activiteit is geconcentreerd onder LLM-bedrijven. Sinds april hebben Alibaba, Tencent en Baidu allemaal hun steun voor het MCP-protocol aangekondigd.

Het Bailian-platform van Alibaba Cloud lanceerde op 9 april de eerste full-lifecycle MCP-service van de industrie, met integratie van meer dan 50 tools, waaronder Amap en Wuying Cloud Desktop, waardoor gebruikers in 5 minuten exclusieve agenten kunnen genereren. Alipay werkte samen met de ModelScope-community om de “Payment MCP Server”-service in China te lanceren, waardoor AI intelligente agenten met één klik toegang hebben tot betalingsmogelijkheden.

Op 14 april heeft Tencent Cloud zijn LLM-kennisengine geüpgraded om MCP-plug-ins te ondersteunen, waardoor verbinding wordt gemaakt met ecosysteemtools zoals Tencent Location Service en WeChat Reading. Op 16 april lanceerde Alipay de “Payment MCP Server”, waardoor ontwikkelaars snel toegang hebben tot betalingsfuncties via natuurlijke taalcommando’s, waardoor een gesloten kringloop voor AI-servicecommercialisering ontstaat. Op 25 april kondigde Baidu volledige compatibiliteit met het MCP-protocol aan en lanceerde het ‘s werelds eerste e-commerce transactie MCP en zoek MCP-service. Het Smart Cloud Qianfan-platform heeft een MCP-server van derden geïntegreerd, waarbij resources over het netwerk worden geïndexeerd om de ontwikkelingskosten te verlagen.

De MCP-aanpak van Chinese LLM-bedrijven is een “gesloten kringloop”. Van het Bailian-platform van Alibaba Cloud dat Amap integreert, tot Tencent Cloud dat MCP-plug-ins ondersteunt en verbinding maakt met ecosystemen zoals WeChat Reading, tot Baidu dat een zoek MCP-service lanceert, gebruiken ze allemaal MCP om hun sterke punten te benutten en hun ecosysteembarrières te versterken.

Er zit een diepe businesslogica achter deze strategische keuze.

Stel je voor dat Alibaba Cloud gebruikers zou toestaan om Baidu Maps te bellen of dat het ecosysteem van Tencent core data-interfaces zou openstellen voor externe modellen. De gedifferentieerde voordelen die worden gecreëerd door de gegevens- en ecosysteemgrachten van elk bedrijf zouden instorten. Het is deze behoefte aan absolute controle over “connectiviteit” die MCP, onder de technische standaardisatie, een stille herverdeling van de infrastructuurcontrole in het AI-tijdperk maakt.

Deze spanning wordt duidelijk: oppervlakkig gezien promoot MCP de standaardisatie van technische protocollen door middel van uniforme interfacespecificaties. In werkelijkheid definieert elk platform zijn eigen verbindingsregels via private protocollen.

Deze scheiding tussen open protocollen en ecosystemen zal onvermijdelijk een groot obstakel vormen voor MCP om een echt universele standaard te worden.

De werkelijke waarde van MCP in de golf van AI-industrialisatie

Zelfs als er in de toekomst geen absolute “uniforme protocol” is, heeft de standaardrevolutie die door MCP is ontketend, de sluizen geopend voor AI-productiviteit.

Momenteel bouwt elk LLM-bedrijf zijn eigen “ecologische enclave” via het MCP-protocol. Deze “gesloten kringloop”-strategie zal de diepe tegenstellingen van de fragmentatie van het Agent-ecosysteem blootleggen. Het zal echter ook de mogelijkheden vrijgeven die door ecosysteem bouwers zijn verzameld, snel applicatiematrices vormen en de AI-implementatie bevorderen.

De voordelen van grote bedrijven in het verleden (zoals de betalingstechnologie van Alipay, de schaal van gebruikers en de risicobeheermogelijkheden) waren bijvoorbeeld beperkt tot hun eigen bedrijven. Door ze echter te openen via gestandaardiseerde interfaces (MCP), kunnen deze mogelijkheden door meer externe ontwikkelaars worden opgeroepen. De AI-agenten van andere bedrijven hoeven bijvoorbeeld geen eigen betalingssystemen te bouwen, ze kunnen rechtstreeks de Alipay-interfaces oproepen. Dit kan meer deelnemers aantrekken om de infrastructuur van het grote bedrijf te gebruiken, waardoor afhankelijkheid en netwerkeffecten ontstaan en de ecologische invloed wordt vergroot.

Deze “enclosure-innovatie” versnelt de industriële penetratie van AI-technologie.

Vanuit dit perspectief kan het het toekomstige Agent-ecosysteem ertoe aanzetten een patroon van “beperkte openheid” te vertonen.

Concreet zullen core data-interfaces nog steeds stevig worden gecontroleerd door grote bedrijven, maar in niet-kerngebieden kunnen door de promotie van technische communities en de tussenkomst van regelgevende instanties geleidelijk cross-platform “micro-standaarden” worden gevormd. Deze “beperkte openheid” kan de ecologische belangen van fabrikanten beschermen en een volledig gefragmenteerd technisch ecosysteem vermijden.

In dit proces zal de waarde van MCP ook verschuiven van een “universele interface” naar een “ecologische connector”.

Het zal niet langer proberen de enige gestandaardiseerde protocol te worden, maar zal dienen als een brug voor dialoog tussen verschillende ecosystemen. Wanneer ontwikkelaars gemakkelijk cross-ecologische Agent-samenwerking kunnen bereiken via MCP, en wanneer gebruikers naadloos kunnen schakelen tussen intelligente agent-services tussen verschillende platforms, zal het Agent-ecosysteem echt zijn gouden eeuw inluiden.

De voorwaarde voor dit alles is of de industrie een delicaat evenwicht kan vinden tussen commerciële belangen en technische idealen. Dit is de verandering die MCP met zich meebrengt die verder gaat dan de waarde van de tool zelf.

De constructie van het Agent-ecosysteem ligt niet in de opkomst van een bepaald standaardprotocol. De implementatie van AI ligt niet in de verbinding van een bepaalde link, maar in consensus.

Zoals Anthropic engineer David oorspronkelijk voor ogen had: “We hebben niet alleen een ‘universele socket’ nodig, maar ook een ‘elektriciteitsnet’ dat ervoor zorgt dat de sockets compatibel zijn met elkaar.” Dit elektriciteitsnet vereist zowel technische consensus als een wereldwijde dialoog over de regels van de infrastructuur van het AI-tijdperk.

In het huidige tijdperk van snelle AI-technologie-iteratie, aangedreven door MCP, versnellen fabrikanten de vereniging van deze technische consensus.