AI Machtsstrijd: Muren van MCP en A2A?

In een toneel dat doet denken aan de complexe machtsspelletjes in ‘Game of Thrones’, is de AI-industrie momenteel getuige van haar eigen spannende drama. Terwijl de aandacht van de wereld gericht is op de concurrentie rond modelparameters en prestaties, broeit er een stille strijd over AI- en agentstandaarden, protocollen en ecosystemen.

In november 2024 introduceerde Anthropic het Model Context Protocol (MCP), een open standaard voor intelligente agenten, met als doel de communicatieprotocollen tussen grote taalmodellen en externe gegevensbronnen en tools te verenigen. Kort daarna kondigde OpenAI Agent SDK-ondersteuning voor MCP aan. Google DeepMind CEO Demis Hassabis bevestigde ook dat Google’s Gemini-model en software development kits deze open standaard zouden integreren, en noemde MCP ‘snel de open standaard voor het AI-agenttijdperk aan het worden’.

Tegelijkertijd kondigde Google het open-source Agent2Agent Protocol (A2A) aan op de Google Cloud Next 2025-conferentie. Dit protocol is bedoeld om barrières tussen bestaande frameworks en leveranciers te doorbreken, waardoor veilige en efficiënte samenwerking tussen agenten in verschillende ecosystemen mogelijk wordt.

Deze acties van techgiganten hebben een concurrentie onthuld binnen AI en intelligente agenten op het gebied van verbindingsnormen, interfaceprotocollen en ecosystemen. Het principe van ‘protocol is gelijk aan macht’ is evident. Naarmate het mondiale AI-landschap vorm krijgt, heeft degene die de definitie van basisprotocolstandaarden in het AI-tijdperk beheert de mogelijkheid om de machtsstructuur en waardeverdeling van de mondiale AI-industrie te herstructureren.

De ‘USB-C-poort’ van het toekomstige AI-ecosysteem

Met de snelle vooruitgang van AI-technologie hebben grote taalmodellen zoals GPT en Claude indrukwekkende mogelijkheden laten zien. De echte waarde van deze modellen ligt in hun vermogen om te interageren met de gegevens en tools van de buitenwereld om problemen in de echte wereld op te lossen.

Dit interactievermogen heeft echter lange tijd te kampen gehad met problemen van fragmentatie en een gebrek aan standaardisatie, waardoor ontwikkelaars specifieke integratielogica moesten implementeren voor verschillende AI-modellen en -platforms.

Om dit probleem aan te pakken, is MCP ontstaan. Als brug die AI-modellen met de buitenwereld verbindt, lost MCP een aantal belangrijke problemen op die zich voordoen tijdens AI-interactie.

Vóór MCP moesten ontwikkelaars specifieke verbindingscode schrijven voor elke gegevensbron of tool als een AI-model verbinding moest maken met een lokale database (zoals SQLite) om gegevens te verkrijgen of externe tools (zoals Slack voor teamcommunicatie, GitHub API om code te beheren) moest aanroepen. Dit proces was niet alleen omslachtig en foutgevoelig, maar ook duur om te ontwikkelen, moeilijk te onderhouden en moeilijk te schalen vanwege het ontbreken van een uniforme standaard.

Bij de lancering van MCP maakte Anthropic een analogie: MCP is als de USB-C-poort voor AI-toepassingen. MCP is bedoeld om een gemeenschappelijke standaard te creëren, waardoor verschillende modellen en externe systemen hetzelfde protocol kunnen gebruiken voor toegang in plaats van elke keer een aparte set integratieoplossingen te schrijven. Dit maakt de ontwikkeling en integratie van AI-toepassingen eenvoudiger en uniformer.

In een softwareontwikkelingsproject kan een MCP-gebaseerde AI-tool bijvoorbeeld rechtstreeks in de projectcoderepository duiken, de codestructuur analyseren, historische commitrecords begrijpen en vervolgens ontwikkelaars code-suggesties geven die beter aansluiten bij de werkelijke behoeften van het project, waardoor de ontwikkelingsefficiëntie en codekwaliteit aanzienlijk worden verbeterd.

In het verleden was het, om grote modellen en andere AI-toepassingen in staat te stellen gegevens te gebruiken, meestal nodig om te kopiëren en plakken of te uploaden en downloaden. Zelfs de krachtigste modellen werden beperkt door data-isolatie, waardoor informatiesilo’s ontstonden. Om krachtigere modellen te creëren, moest elke nieuwe gegevensbron worden aangepast en geïmplementeerd, waardoor het moeilijk werd om echt onderling verbonden systemen te schalen, wat resulteerde in veel beperkingen.

Door een uniforme interface te bieden, overbrugt MCP AI en data (inclusief lokale en internetdata) direct. Via de MCP-server en MCP-client geldt dat zolang beiden dit protocol volgen, ‘alles kan worden verbonden’. Hierdoor kunnen AI-toepassingen veilig toegang krijgen tot en werken met lokale en externe data, waardoor AI-toepassingen een interface krijgen om verbinding te maken met alles.

Vanuit architecturaal perspectief omvat MCP voornamelijk twee kernonderdelen: de MCP-server en de MCP-client. Ontwikkelaars kunnen hun data via de MCP-server beschikbaar maken, die afkomstig kan zijn van lokale bestandssystemen, databases of externe services zoals Slack en GitHub API’s. AI-toepassingen die zijn gebouwd om verbinding te maken met deze servers worden MCP-clients genoemd. Simpel gezegd, de MCP-server is verantwoordelijk voor het blootleggen van data, en de MCP-client is verantwoordelijk voor het openen van de data.

Wanneer AI-modellen toegang krijgen tot externe data en tools, is veiligheid een belangrijke overweging. Door gestandaardiseerde data-accessinterfaces te bieden, vermindert MCP het aantal directe contacten met gevoelige data aanzienlijk, waardoor het risico op datalekken wordt verkleind.

MCP heeft ingebouwde beveiligingsmechanismen, waardoor databronnen data op een gecontroleerde manier met AI kunnen delen binnen een veilig raamwerk. AI kan ook veilig verwerkingsresultaten terugkoppelen naar databronnen, waardoor wordt gegarandeerd dat alleen geverifieerde verzoeken toegang kunnen krijgen tot specifieke bronnen, wat gelijk staat aan het toevoegen van een extra verdedigingslaag aan data-beveiliging, het wegnemen van zorgen van bedrijven over databeveiliging en het leggen van een solide basis voor de diepe toepassing van AI in scenario’s op ondernemingsniveau.

De MCP-server beheert bijvoorbeeld zijn eigen bronnen en hoeft geen gevoelige informatie zoals API-sleutels te verstrekken aan grote modeltechnologieproviders. Op deze manier kunnen aanvallers, zelfs als het grote model wordt aangevallen, deze gevoelige informatie niet verkrijgen, waardoor risico’s effectief worden geïsoleerd.

Er kan worden gezegd dat MCP een natuurlijk product is van de ontwikkeling van AI-technologie en een belangrijke mijlpaal is. Het vereenvoudigt niet alleen het ontwikkelingsproces van AI-toepassingen, maar creëert ook voorwaarden voor de bloei van het AI-ecosysteem.

Als open standaard stimuleert MCP de vitaliteit van de ontwikkelaarsgemeenschap enorm. Wereldwijde ontwikkelaars kunnen code bijdragen en nieuwe connectoren rond MCP ontwikkelen, waardoor de toepassingsgrenzen ervan voortdurend worden uitgebreid, een deugdzame ecologische cyclus wordt gevormd en de diepe integratie van AI en data in verschillende industrieën wordt bevorderd. Deze openheid maakt het voor AI-toepassingen gemakkelijker om verbinding te maken met verschillende services en tools, waardoor een rijk ecosysteem wordt gevormd, wat uiteindelijk gebruikers en de hele industrie ten goede komt.

De voordelen van MCP komen niet alleen tot uiting op technisch niveau, maar belangrijker nog, de werkelijke waarde die het in verschillende velden brengt. In het AI-tijdperk bepaalt het vermogen om informatie te verwerven en te verwerken alles, en MCP stelt meerdere agenten in staat om samen te werken, waardoor elkaars sterke punten worden gemaximaliseerd.

In het medische veld kunnen intelligente agenten bijvoorbeeld verbinding maken met elektronische medische dossiers van patiënten en medische databases via MCP en, in combinatie met de professionele oordelen van artsen, sneller eerste diagnostische suggesties geven. In de financiële industrie kunnen intelligente agenten samenwerken om financiële data te analyseren, marktveranderingen te volgen en zelfs automatisch aandelen te verhandelen. Deze taakverdeling en samenwerking tussen intelligente agenten maakt dataprocessing efficiënter en besluitvorming nauwkeuriger.

Bij het beoordelen van de ontwikkelingsgeschiedenis van MCP is het niet moeilijk om vast te stellen dat de groeisnelheid ervan verbazingwekkend is. Begin 2023 voltooide MCP het ontwerp van het core communicatieprotocol, waarbij de basisregistratie van intelligente agenten en berichttransmissiefuncties werden gerealiseerd. Dit is alsof er een universele taal voor intelligente agenten wordt gecreëerd, waardoor ze met elkaar kunnen communiceren in plaats van hun eigen taal te spreken.

Eind 2023 breidde MCP zijn functies verder uit, ter ondersteuning van intelligente agenten om externe API’s en het delen van data aan te roepen, wat gelijk staat aan het feit dat intelligente agenten niet alleen kunnen chatten, maar ook informatie kunnen uitwisselen en gezamenlijk taken kunnen verwerken.

Begin 2024 bereikte het MCP-ecosysteem een nieuw niveau. Ontwikkelaarstoolkits en voorbeeldprojecten werden gelanceerd, en het aantal intelligente agentplug-ins dat door de gemeenschap werd bijgedragen, overschreed de 100, waarmee een ‘bloeiende’ situatie werd bereikt.

Onlangs integreerde Microsoft MCP in zijn Azure OpenAI-service, en Google DeepMind kondigde ook aan dat het ondersteuning voor MCP zal bieden en het zal integreren in het Gemini-model en de SDK. Niet alleen grote technologiebedrijven, maar ook AI-startups en leveranciers van ontwikkelingstools hebben zich aangesloten bij MCP, zoals Block, Apollo, Zed, Replit, Codeium en Sourcegraph.

De opkomst van MCP heeft snelle follow-up en concurrentie aangetrokken van Chinese technologiebedrijven zoals Tencent en Alibaba, die het beschouwen als een belangrijke stap in de AI-ecosysteemstrategie. Onlangs lanceerde het Bailian-platform van Alibaba Cloud bijvoorbeeld een MCP-service voor de volledige levenscyclus, waardoor gebruikers geen resources hoeven te beheren, te ontwikkelen en implementeren, en engineeringactiviteiten en -onderhoud hoeven uit te voeren, waardoor de ontwikkelingscyclus van intelligente agenten wordt verkort tot minuten. Tencent Cloud bracht de ‘AI Development Kit’ uit, die MCP-plug-inhostingservices ondersteunt om ontwikkelaars te helpen snel bedrijfsoriëntatie-intelligente agenten te bouwen.

De ‘onzichtbare brug’ voor multi-agent samenwerking

Naarmate het MCP-protocol intelligente agenten transformeert van chattools in actieassistenten, beginnen techgiganten ‘kleine tuinen en hoge muren’ van standaarden en ecosystemen te bouwen op dit nieuwe slagveld.

Vergeleken met MCP, dat zich richt op het verbinden van AI-modellen met externe tools en data, gaat A2A een stap verder en richt het zich op efficiënte samenwerking tussen intelligente agenten.

De oorspronkelijke intentie van het A2A-protocol is simpel: intelligente agenten van verschillende bronnen en fabrikanten in staat stellen elkaar te begrijpen en met elkaar samen te werken, waardoor de samenwerking van meerdere intelligente agenten meer autonomie krijgt.

Dit is alsof de WTO tot doel heeft de tariefbarrières tussen landen te verminderen. Intelligente agenten van verschillende leveranciers en frameworks zijn als onafhankelijke landen. Zodra A2A is aangenomen, staat dit gelijk aan toetreding tot een vrijhandelszone, waar ze in een gemeenschappelijke taal kunnen communiceren, naadloos kunnen samenwerken en gezamenlijk complexe workflows kunnen voltooien die een enkele intelligente agent niet zelfstandig kan voltooien.

De specifieke interoperabiliteitsvorm van het A2A-protocol wordt bereikt door communicatie tussen de Client Agent en de Remote Agent te faciliteren. De clientagent is verantwoordelijk voor het formuleren en communiceren van taken, en de remote agent onderneemt actie op basis van deze taken om de juiste informatie te verstrekken of de bijbehorende bewerkingen uit te voeren.

In dit proces heeft het A2A-protocol de volgende belangrijke mogelijkheden:

Ten eerste kunnen intelligente agenten hun mogelijkheden adverteren via ‘intelligente agentkaarten’. Deze ‘intelligente agentkaarten’ bestaan in JSON-formaat, waardoor clientagenten kunnen identificeren welke remote agent het meest geschikt is om een specifieke taak uit te voeren.

Zodra de juiste remote agent is geïdentificeerd, kan de clientagent het A2A-protocol gebruiken om ermee te communiceren en de taak eraan toe te wijzen.

Taakbeheer is een belangrijk onderdeel van het A2A-protocol. Communicatie tussen de client en remote agents draait om het voltooien van taken. Het protocol definieert een ‘taak’-object. Voor eenvoudige taken kan het onmiddellijk worden voltooid; voor complexe en langdurige taken kunnen intelligente agenten met elkaar communiceren om de synchronisatie van de taakvoltooiingsstatus te behouden.

Daarnaast ondersteunt A2A ook samenwerking tussen intelligente agenten. Meerdere intelligente agenten kunnen elkaar berichten sturen, die contextuele informatie, antwoorden of gebruikersinstructies kunnen bevatten. Op deze manier kunnen meerdere intelligente agenten beter samenwerken om complexe taken samen te voltooien.

Bij het ontwerpen van dit protocol volgde Google vijf belangrijke principes. Ten eerste richt A2A zich op het in staat stellen van intelligente agenten om samen te werken in hun natuurlijke, ongestructureerde modi, zelfs als ze geen geheugen, tools en context delen.

Ten tweede is het protocol gebouwd op bestaande, populaire standaarden, waaronder HTTP, Server-Sent Events (SSE) en JSON-RPC, wat betekent dat het gemakkelijker te integreren is met bestaande IT-stacks die bedrijven al dagelijks gebruiken.

Een e-commercebedrijf gebruikt bijvoorbeeld dagelijks het HTTP-protocol om webdatatransmissie te verwerken en JSON-RPC om data-instructies tussen de voor- en achterkant te verzenden. Na de introductie van het A2A-protocol kan het orderbeheersysteem van het bedrijf snel logistieke data-updates verkrijgen die worden verstrekt door relevante intelligente agenten via HTTP- en A2A-protocoldocking, zonder dat het complexe datatransmissiekanalen hoeft te herbouwen, waardoor het gemakkelijk kan worden geïntegreerd in de bestaande IT-architectuur en de samenwerking van verschillende systemen soepeler verloopt.

Ten derde is A2A ontworpen om authenticatie en autorisatie op ondernemingsniveau te ondersteunen. Het gebruik van het A2A-protocol kan snel data authenticeren en veilig data verkrijgen, waardoor de veiligheid en compliance van datatransmissie wordt gewaarborgd en datalekrisico’s worden voorkomen.

Ten vierde is A2A flexibel genoeg om verschillende scenario’s te ondersteunen, van snelle taken tot diepgaand onderzoek dat uren of zelfs dagen kan duren (wanneer er mensen bij betrokken zijn). Gedurende het hele proces kan A2A gebruikers real-time feedback, meldingen en statusupdates geven.

Neem bijvoorbeeld een onderzoeksinstelling. Onderzoekers gebruiken intelligente agenten onder het A2A-protocol om onderzoek te doen gerelateerd aan de ontwikkeling van nieuwe medicijnen. Eenvoudige taken, zoals het snel ophalen van bestaande informatie over de structuur van geneesmiddelenmoleculen in de database, kunnen binnen enkele seconden worden voltooid en teruggekoppeld aan de onderzoekers. Voor complexe taken, zoals het simuleren van de reactie van nieuwe geneesmiddelenmoleculen in de omgeving van het menselijk lichaam, kan het echter enkele dagen duren.

Tijdens deze periode zal het A2A-protocol de simulatievoortgang continu naar de onderzoekers pushen, zoals hoeveel stappen er zijn voltooid, de huidige problemen die worden ondervonden, enz., waardoor onderzoekers op de hoogte kunnen blijven van de situatie, net alsof er te allen tijde een assistent de voortgang van het werk rapporteert.

Ten vijfde is de wereld van intelligente agenten niet beperkt tot tekst, dus A2A ondersteunt verschillende modaliteiten, waaronder audio, afbeeldingen en videostreams.

Stel je voor dat in de toekomst je intelligente assistent, het CRM-systeem van het bedrijf, supply chain management AI, en zelfs intelligente agenten op verschillende cloudplatforms, net als oude vrienden ‘over taken kunnen chatten en werk kunnen verdelen’, waardoor efficiënt wordt voldaan aan verschillende behoeften, van eenvoudige vragen tot complexe processen, waardoor het tijdperk van machine-intelligentie wordt geopend.

Momenteel ondersteunt het protocol al applicatieplatforms voor meer dan 50 reguliere technologiebedrijven, waaronder Atlassian, Box, Cohere, Intuit, MongoDB, PayPal, Salesforce en SAP.

Het is vermeldenswaard dat dit allemaal bedrijven zijn die subtiele relaties hebben met het Google-ecosysteem. Cohere, een onafhankelijke AI-startup, werd bijvoorbeeld in 2019 opgericht door drie onderzoekers die eerder bij Google Brain werkten; ze hebben een langdurig technisch partnerschap met Google Cloud, en Google Cloud levert Cohere de computerkracht die nodig is om modellen te trainen.

Atlassian, een bedrijf dat team collaboration tools levert, zoals Jira en Confluence, wordt door veel mensen gebruikt. Ze hebben een partnerschap met Google, en sommige applicaties kunnen in Google-producten worden gebruikt.

Hoewel Google zei dat A2A een aanvulling is op het MCP-modelcontextprotocol dat door Anthropic is voorgesteld, is dit een beetje alsof Google in het verleden het voortouw nam bij het ontwikkelen van het Android-systeem met meer dan 80 bedrijven. Naarmate meer en meer bedrijven zich aansluiten, zal de commerciële waarde van A2A aanzienlijk worden verbeterd en zal het de snelle ontwikkeling van het hele intelligente agentecosysteem bevorderen.

Van ‘Tools verbinden’ tot ‘Ecosystemen domineren’

MCP en A2A vertegenwoordigen twee verschillende paden voor AI-interconnectie. MCP zorgt als het onderliggende modelinteractieprotocol voor een naadloze docking tussen applicaties en verschillende modellen; A2A biedt een samenwerkingsframework tussen intelligente agenten op deze basis, waarbij de nadruk ligt op autonome ontdekking en flexibele samenwerking tussen intelligente agenten. Deze gelaagde structuur kan tegelijkertijd voldoen aan de behoeften van modelstandaardisatie en intelligente agentsamenwerking.

Tegelijkertijd hebben beide dominante posities bereikt in hun respectievelijke subvelden. MCP heeft voordelen in toepassingen op ondernemingsniveau, cross-model services en standaardisatiescenario’s; A2A heeft meer steun gekregen in open-source gemeenschappen, onderzoeksprojecten en innovatieve toepassingen.

Vanuit een macro perspectief houdt de opkomst van MCP en A2A niet alleen verband met toekomstige AI-technologiestandaarden, maar luidt ook een belangrijke verandering in het AI-industrielandschap in. We zijn getuige van een historisch keerpunt in AI van ‘stand-alone intelligentie’ naar ‘collaboratieve netwerken’. Zoals de ontwikkelingsgeschiedenis van het internet laat zien, zal de totstandkoming van open en gestandaardiseerde protocollen een belangrijke kracht worden bij het bevorderen van de industrie-ontwikkeling.

Maar van een dieper niveau verbergen MCP en A2A enorme commerciële belangen en de concurrentie om de toekomstige AI-technologie discoursmacht.

In termen van businessmodellen openen de twee verschillende winstpaden. Anthropic is van plan een enterprise-versieservice te lanceren op basis van MCP, waarbij bedrijven worden belast op basis van API-oproepvolume. Bedrijven gebruiken MCP om interne data diepgaand te integreren met AI, de bedrijfsefficiëntie te verbeteren en moeten betalen voor deze handige service.

Google gebruikt het A2A-protocol om cloudservice-abonnementen te promoten. Wanneer bedrijven A2A gebruiken om intelligente agentsamenwerkingsnetwerken te bouwen, worden ze geleid om de krachtige computerkracht en gerelateerde services van Google Cloud te gebruiken, waardoor de Google Cloud-bedrijfsomzet wordt verhoogd.

In termen van datamonopolie betekent het beheersen van protocolstandaarden het beheersen van de stroom van AI-data. Via het A2A-protocol verzamelt Google enorme hoeveelheden data tijdens de samenwerking van veel intelligente agenten van bedrijven. Deze data wordt teruggekoppeld naar de belangrijkste advertentie-algoritmen, waardoor de dominantie in de advertentiemarkt verder wordt geconsolideerd. Anthropic wil MCP gebruiken om AI de kern van bedrijfsdata te laten binnendringen. Als het een schaalvoordeel vormt, zal het ook een grote hoeveelheid industriedata verzamelen, waardoor data-ondersteuning wordt geboden voor het uitbreiden van het bedrijf en het ontwikkelen van AI-producten die meer aansluiten bij de behoeften van het bedrijf.

In termen van open-source strategie, hoewel beide beweren open source te zijn, hebben ze hun eigen plannen. Het MCP core protocol is open source, waardoor ontwikkelaars worden aangetrokken om deel te nemen aan de ecosysteemconstructie, maar belangrijke functies op ondernemingsniveau (zoals geavanceerde functies voor externe verbindingen en diepgaande verwerking van multi-modale data) moeten tegen betaling worden ontgrendeld, waardoor open source en commerciële belangen in evenwicht worden gebracht. Hoewel het A2A-protocol open source is, leidt het meer dan 50 ondernemingspartners om prioriteit te geven aan het gebruik van Google Cloud-services, waardoor het open-source ecosysteem nauw wordt verbonden met het eigen commerciële systeem en de gebruikersbinding en platformconcurrentie worden verbeterd.

Technologie zelf heeft geen goed of kwaad, maar wanneer het is ingebed in de keten van belangen, wordt het een drager van macht en controle. Elke technologische revolutie hervormt de wereldwijde keten van belangen. De industriële revolutie verplaatste de keten van belangen van land en arbeid naar kapitaal en machines, terwijl de digitale revolutie het naar data en algoritmen duwde.

Open-source tools kunnen zeker innovatieve paden verkennen, maar verwacht niet dat data- en algoritmesleutels worden gebruikt om alle deuren te openen, omdat elke reeks sleutels is gegraveerd met het wachtwoord van de belangen van het platform.

Hoewel technologiebedrijven de AI-ecosysteem lijken te openen, bouwen ze eigenlijk hoge en dikke ecologische muren rond toepassingsscenario’s die gunstiger zijn voor henzelf, waardoor wordt voorkomen dat datagoudmijnen worden geplunderd, aangezien het uiteindelijke concurrentievermogen in het AI-tijdperk nog steeds data is.

Of MCP en A2A uiteindelijk kunnen samensmelten, is nog onzeker. Als ze elk onafhankelijk handelen, is het zeer waarschijnlijk dat technologiegiganten ‘AI kleine tuinenmuren’ bouwen. Als gevolg hiervan zal het fenomeen van de data-eilanden ernstiger worden, zal datacirculatie tussen bedrijven in verschillende protocolkampen worden geblokkeerd, waardoor de reikwijdte van AI-innovatietoepassingen wordt beperkt; ontwikkelaars zullen meerdere protocolontwikkelingsvaardigheden moeten beheersen, waardoor de leerkosten en ontwikkelingswerklast worden verhoogd, waardoor de innovatievitaliteit wordt onderdrukt; de richting van de industrie-innovatie zal gemakkelijk worden geleid door gigantische protocollen, en start-ups zullen in een nadelige positie verkeren in de concurrentie vanwege de moeilijkheid om meerdere protocollen te ondersteunen, waardoor het algehele innovatietempo van de industrie wordt belemmerd.

We hopen dat de opkomst van MCP en A2A de mondiale AI-industrie zal bevorderen om te evolueren in de richting van samenwerking in plaats van confrontatie.

Net als het spoorbreedtegeschil in de 19e eeuw en de mobiele communicatiestandaardo oorlog in de 20e eeuw, gaat elke technologische splitsing gepaard met enorme sociale kosten. De gevolgen van het AI-standaard- en protocolgeschil kunnen ingrijpender zijn. Het zal bepalen of we op weg zijn naar een ‘Internet of Everything’-sterrenfederatie of in een donker bos vallen waar de ‘keten van verdenkingen’ de overhand heeft.