KI-Machtkampf: Mauern durch MCP & A2A?

In einer Szene, die an die komplizierten Machtkämpfe in ‘Game of Thrones’ erinnert, erlebt die KI-Industrie derzeit ihr eigenes, hochriskantes Drama. Während sich die Aufmerksamkeit der Welt auf den Wettbewerb um Modellparameter und -leistung konzentriert, braut sich ein stiller Kampf um KI- und Agentenstandards, Protokolle und Ökosysteme zusammen.

Im November 2024 stellte Anthropic das Model Context Protocol (MCP) vor, einen offenen Standard für intelligente Agenten, der darauf abzielt, die Kommunikationsprotokolle zwischen großen Sprachmodellen und externen Datenquellen und Tools zu vereinheitlichen. Kurz darauf kündigte OpenAI die Agent SDK-Unterstützung für MCP an. Google DeepMind CEO Demis Hassabis bestätigte auch, dass Googles Gemini-Modell und Software Development Kits diesen offenen Standard integrieren würden und bezeichnete MCP als ‘sich schnell entwickelnden offenen Standard für die KI-Agenten-Ära’.

Gleichzeitig kündigte Google auf der Google Cloud Next 2025 Konferenz das Open-Source Agent2Agent Protocol (A2A) an. Dieses Protokoll zielt darauf ab, Barrieren zwischen bestehenden Frameworks und Anbietern abzubauen und eine sichere und effiziente Zusammenarbeit zwischen Agenten in verschiedenen Ökosystemen zu ermöglichen.

Diese Maßnahmen der Technologiegiganten haben einen Wettbewerb in Bezug auf Verbindungsstandards, Schnittstellenprotokolle und Ökosysteme im Bereich KI und intelligente Agenten aufgedeckt. Der Grundsatz ‘Protokoll ist gleich Macht’ ist offensichtlich. Während sich die globale KI-Landschaft formt, hat derjenige, der die Definition grundlegender Protokollstandards im KI-Zeitalter kontrolliert, die Möglichkeit, die Machtstruktur und die Wertverteilungsordnung der globalen KI-Industriekette neu zu gestalten.

Das ‘USB-C-Port’ der zukünftigen KI-Ökosystems

Mit dem rasanten Fortschritt der KI-Technologie haben große Sprachmodelle wie GPT und Claude beeindruckende Fähigkeiten demonstriert. Der wahre Wert dieser Modelle liegt in ihrer Fähigkeit, mit den Daten und Tools der Außenwelt zu interagieren, um reale Probleme zu lösen.

Diese Interaktionsfähigkeit steht jedoch seit langem vor Problemen der Fragmentierung und des Mangels an Standardisierung, was von Entwicklern die Implementierung spezifischer Integrationslogiken für verschiedene KI-Modelle und -Plattformen erfordert.

Um dieses Problem zu lösen, ist MCP entstanden. Als Brücke, die KI-Modelle mit der Außenwelt verbindet, löst MCP mehrere Schlüsselprobleme, die während der KI-Interaktion auftreten.

Vor MCP mussten Entwickler spezifischen Verbindungscode für jede Datenquelle oder jedes Tool schreiben, wenn ein KI-Modell eine Verbindung zu einer lokalen Datenbank (z. B. SQLite) herstellen musste, um Daten zu erhalten oder Remote-Tools (z. B. Slack für die Teamkommunikation, GitHub API zur Verwaltung von Code) aufzurufen. Dieser Prozess war nicht nur umständlich und fehleranfällig, sondern aufgrund des Fehlens eines einheitlichen Standards auch teuer in der Entwicklung, schwierig zu warten und schwer zu skalieren.

Bei der Einführung von MCP zog Anthropic einen Vergleich: MCP ist wie der USB-C-Anschluss für KI-Anwendungen. MCP zielt darauf ab, einen gemeinsamen Standard zu schaffen, der es verschiedenen Modellen und externen Systemen ermöglicht, dasselbe Protokoll für den Zugriff zu verwenden, anstatt jedes Mal eine separate Reihe von Integrationslösungen zu schreiben. Dies macht die Entwicklung und Integration von KI-Anwendungen einfacher und einheitlicher.

In einem Softwareentwicklungsprojekt kann beispielsweise ein MCP-basiertes KI-Tool direkt in das Projekt-Code-Repository eintauchen, die Codestruktur analysieren, historische Commit-Einträge verstehen und Entwicklern dann Codevorschläge unterbreiten, die besser auf die tatsächlichen Bedürfnisse des Projekts abgestimmt sind, wodurch die Entwicklungseffizienz und die Codequalität erheblich verbessert werden.

In der Vergangenheit war es in der Regel erforderlich, Daten zu kopieren und einzufügen oder hoch- und herunterzuladen, um großen Modellen und anderen KI-Anwendungen die Nutzung von Daten zu ermöglichen. Selbst die leistungsstärksten Modelle waren durch die Datenisolierung eingeschränkt, wodurch Informationssilos entstanden. Um leistungsfähigere Modelle zu erstellen, musste jede neue Datenquelle angepasst und implementiert werden, was es schwierig machte, wirklich vernetzte Systeme zu skalieren, was zu vielen Einschränkungen führte.

Durch die Bereitstellung einer einheitlichen Schnittstelle verbindet MCP KI und Daten (einschließlich lokaler und Internetdaten) direkt. Durch den MCP-Server und den MCP-Client kann ‘alles verbunden werden’, solange beide diesem Protokoll folgen. Dies ermöglicht KI-Anwendungen den sicheren Zugriff und die sichere Bedienung lokaler und Remotedaten und bietet KI-Anwendungen eine Schnittstelle, um sich mit allem zu verbinden.

Aus architektonischer Sicht umfasst MCP hauptsächlich zwei Kernteile: den MCP-Server und den MCP-Client. Entwickler können ihre Daten über den MCP-Server bereitstellen, der aus lokalen Dateisystemen, Datenbanken oder Remote-Diensten wie Slack- und GitHub-APIs stammen kann. KI-Anwendungen, die für die Verbindung mit diesen Servern entwickelt wurden, werden als MCP-Clients bezeichnet. Einfach ausgedrückt ist der MCP-Server für die Bereitstellung von Daten zuständig, und der MCP-Client ist für den Zugriff auf die Daten zuständig.

Wenn KI-Modelle auf externe Daten und Tools zugreifen, ist Sicherheit ein wichtiger Aspekt. Durch die Bereitstellung standardisierter Datenschnittstellen reduziert MCP die Anzahl der direkten Kontakte mit sensiblen Daten erheblich, wodurch das Risiko von Datenlecks verringert wird.

MCP verfügt über integrierte Sicherheitsmechanismen, die es Datenquellen ermöglichen, Daten innerhalb eines sicheren Rahmens kontrolliert mit KI zu teilen. KI kann auch Verarbeitungsergebnisse sicher an Datenquellen zurückmelden, um sicherzustellen, dass nur verifizierte Anfragen auf bestimmte Ressourcen zugreifen können, was dem Hinzufügen einer weiteren Verteidigungsschicht zur Datensicherheit entspricht, die Bedenken der Unternehmen hinsichtlich der Datensicherheit zerstreut und eine solide Grundlage für die tiefe Anwendung von KI in Unternehmensszenarien legt.

Beispielsweise steuert der MCP-Server seine eigenen Ressourcen und muss keine sensiblen Informationen wie API-Schlüssel an große Modelltechnologieanbieter weitergeben. Auf diese Weise können Angreifer diese sensiblen Informationen nicht abrufen, selbst wenn das große Modell angegriffen wird, wodurch Risiken effektiv isoliert werden.

Man kann sagen, dass MCP ein natürliches Produkt der KI-Technologieentwicklung und ein wichtiger Meilenstein ist. Es vereinfacht nicht nur den Entwicklungsprozess von KI-Anwendungen, sondern schafft auch die Voraussetzungen für den Wohlstand des KI-Ökosystems.

Als offener Standard stimuliert MCP die Vitalität der Entwicklergemeinschaft erheblich. GlobaleEntwickler können Code beisteuern und neue Konnektoren rund um MCP entwickeln, seine Anwendungsgrenzen kontinuierlich erweitern, einen tugendhaften ökologischen Kreislauf bilden und die tiefe Integration von KI und Daten in verschiedenen Branchen fördern. Diese Offenheit erleichtert es KI-Anwendungen, sich mit verschiedenen Diensten und Tools zu verbinden, wodurch ein reichhaltiges Ökosystem entsteht, von dem letztendlich Benutzer und die gesamte Branche profitieren.

Die Vorteile von MCP spiegeln sich nicht nur auf technischer Ebene wider, sondern vor allem im tatsächlichen Wert, den es verschiedenen Bereichen bringt. Im KI-Zeitalter bestimmt die Fähigkeit, Informationen zu erfassen und zu verarbeiten, alles, und MCP ermöglicht die Zusammenarbeit mehrerer Agenten, wodurch die Stärken jedes Einzelnen maximiert werden.

In der Medizin können intelligente Agenten beispielsweise über MCP eine Verbindung zu elektronischen Patientenakten und medizinischen Datenbanken herstellen und in Kombination mit den professionellen Urteilen von Ärzten schneller erste Diagnosevorschläge unterbreiten. In der Finanzbranche können intelligente Agenten zusammenarbeiten, um Finanzdaten zu analysieren, Marktveränderungen zu verfolgen und sogar automatisch Aktienhandel zu betreiben. Diese Aufteilung der Arbeit und die Zusammenarbeit zwischen intelligenten Agenten machen die Datenverarbeitung effizienter und die Entscheidungsfindung genauer.

Bei der Überprüfung der Entwicklungsgeschichte von MCP ist es nicht schwer festzustellen, dass seine Wachstumsrate erstaunlich ist. Anfang 2023 schloss MCP den Entwurf des Kernkommunikationsprotokolls ab und realisierte grundlegende intelligente Agentenregistrierungs- und Nachrichtenübertragungsfunktionen. Dies ist, als würde man eine Universalsprache für intelligente Agenten erstellen, die es ihnen ermöglicht, miteinander zu kommunizieren, anstatt ihre eigenen Sprachen zu sprechen.

Ende 2023 erweiterte MCP seine Funktionen weiter und unterstützte intelligente Agenten, externe APIs und Datenfreigabe aufzurufen, was gleichbedeutend damit ist, intelligenten Agenten nicht nur das Chatten zu ermöglichen, sondern auch Informationen auszutauschen und Aufgaben gemeinsam zu bearbeiten.

Anfang 2024 erreichte das MCP-Ökosystem ein neues Niveau. Entwickler-Toolkits und Beispielprojekte wurden gestartet, und die Anzahl der von der Community beigetragenen intelligenten Agenten-Plug-Ins überstieg 100, wodurch eine Situation des ‘Aufblühens’ erreicht wurde.

Kürzlich hat Microsoft MCP in seinen Azure OpenAI-Dienst integriert, und Google DeepMind hat außerdem angekündigt, MCP zu unterstützen und es in das Gemini-Modell und das SDK zu integrieren. Nicht nur große Technologieunternehmen, sondern auch KI-Startups und Entwicklungs-Tool-Anbieter haben sich MCP angeschlossen, wie z. B. Block, Apollo, Zed, Replit, Codeium und Sourcegraph.

Der Aufstieg von MCP hat ein schnelles Follow-up und einen Wettbewerb von chinesischen Technologieunternehmen wie Tencent und Alibaba ausgelöst, die es als einen wichtigen Schritt in der KI-Ökosystemstrategie betrachten. Beispielsweise hat die Bailian-Plattform von Alibaba Cloud kürzlich einen MCP-Service für den gesamten Lebenszyklus gestartet, wodurch Benutzer keine Ressourcen verwalten, entwickeln und bereitstellen sowie Operationen und Wartung durchführen müssen, wodurch der Entwicklungszyklus intelligenter Agenten auf Minuten reduziert wird. Tencent Cloud hat das ‘AI Development Kit’ veröffentlicht, das MCP-Plug-In-Hosting-Dienste unterstützt, um Entwicklern zu helfen, schnell geschäftsorientierte intelligente Agenten zu entwickeln.

Die ‘unsichtbare Brücke’ für die Multi-Agenten-Zusammenarbeit

Während das MCP-Protokoll intelligente Agenten von Chat-Tools in Aktionsassistenten verwandelt, beginnen Technologiegiganten, auf diesem neuen Schlachtfeld ‘kleine Höfe und hohe Mauern’ von Standards und Ökosystemen zu errichten.

Im Vergleich zu MCP, das sich auf die Verbindung von KI-Modellen mit externen Tools und Daten konzentriert, geht A2A noch einen Schritt weiter und konzentriert sich auf die effiziente Zusammenarbeit zwischen intelligenten Agenten.

Die ursprüngliche Absicht des A2A-Protokolls ist einfach: intelligente Agenten aus verschiedenen Quellen und von verschiedenen Herstellern in die Lage zu versetzen, einander zu verstehen und zusammenzuarbeiten, wodurch die Zusammenarbeit mehrerer intelligenter Agenten autonomer wird.

Dies ist wie die WTO, die darauf abzielt, Zollschranken zwischen Ländern abzubauen. Intelligente Agenten von verschiedenen Anbietern und Frameworks sind wie unabhängige Länder. Sobald A2A eingeführt ist, entspricht dies dem Beitritt zu einer Freihandelszone, in der sie in einer gemeinsamen Sprache kommunizieren, nahtlos zusammenarbeiten und gemeinsam komplexe Arbeitsabläufe erledigen können, die ein einzelner intelligenter Agent nicht unabhängig erledigen kann.

Die spezifische Interoperabilitätsform des A2A-Protokolls wird durch die Erleichterung der Kommunikation zwischen dem Client Agent und dem Remote Agent erreicht. Der Client Agent ist für die Formulierung und Kommunikation von Aufgaben zuständig, und der Remote Agent ergreift Maßnahmen auf der Grundlage dieser Aufgaben, um die richtigen Informationen bereitzustellen oder entsprechende Operationen durchzuführen.

In diesem Prozess verfügt das A2A-Protokoll über die folgenden Schlüsselfunktionen:

Erstens können intelligente Agenten ihre Fähigkeiten über ‘intelligente Agentenkarten’ bewerben. Diese ‘intelligenten Agentenkarten’ existieren im JSON-Format, sodass Client-Agenten erkennen können, welcher Remote Agent am besten geeignet ist, eine bestimmte Aufgabe auszuführen.

Sobald der geeignete Remote Agent identifiziert wurde, kann der Client Agent das A2A-Protokoll verwenden, um mit ihm zu kommunizieren und ihm die Aufgabe zuzuweisen.

Das Aufgabenmanagement ist ein wichtiger Bestandteil des A2A-Protokolls. Die Kommunikation zwischen dem Client und den Remote Agenten dreht sich um die Erledigung von Aufgaben. Das Protokoll definiert ein ‘Aufgaben’-Objekt. Bei einfachen Aufgaben kann es sofort erledigt werden; Bei komplexen und langfristigen Aufgaben können intelligente Agenten miteinander kommunizieren, um die Synchronisierung des Aufgabenerledigungsstatus aufrechtzuerhalten.

Darüber hinaus unterstützt A2A auch die Zusammenarbeit zwischen intelligenten Agenten. Mehrere intelligente Agenten können sich gegenseitig Nachrichten senden, die Kontextinformationen, Antworten oder Benutzeranweisungen enthalten können. Auf diese Weise können mehrere intelligente Agenten besser zusammenarbeiten, um komplexe Aufgaben gemeinsam zu erledigen.

Bei der Entwicklung dieses Protokolls folgte Google fünf Schlüsselprinzipien. Erstens konzentriert sich A2A darauf, intelligente Agenten in die Lage zu versetzen, in ihren natürlichen, unstrukturierten Modi zusammenzuarbeiten, auch wenn sie sich nicht Speicher, Tools und Kontext teilen.

Zweitens basiert das Protokoll auf bestehenden, gängigen Standards, darunter HTTP, Server-Sent Events (SSE) und JSON-RPC, was bedeutet, dass es einfacher ist, es in bestehende IT-Stacks zu integrieren, die Unternehmen bereits täglich verwenden.

Beispielsweise verwendet ein E-Commerce-Unternehmen täglich das HTTP-Protokoll, um Webdaten zu übertragen, und JSON-RPC, um Datenanweisungen zwischen dem Front- und Back-End zu übertragen. Nach der Einführung des A2A-Protokolls kann das Auftragsverwaltungssystem des Unternehmens schnell Logistikdatenaktualisierungen abrufen, die von relevanten intelligenten Agenten über HTTP- und A2A-Protokolldocking bereitgestellt werden, ohne komplexe Datenübertragungskanäle neu erstellen zu müssen, wodurch die Integration in die bestehende IT-Architektur erleichtert und die Zusammenarbeit verschiedener Systeme reibungsloser wird.

Drittens ist A2A so konzipiert, dass es Authentifizierung und Autorisierung auf Unternehmensebene unterstützt. Mit dem A2A-Protokoll können Daten schnell authentifiziert und sicher abgerufen werden, wodurch die Sicherheit und Compliance der Datenübertragung gewährleistet und Datenleckagerisiken verhindert werden.

Viertens ist A2A flexibel genug, um verschiedene Szenarien zu unterstützen, von schnellen Aufgaben bis hin zu eingehenden Recherchen, die Stunden oder sogar Tage dauern können (wenn Menschen beteiligt sind). Während des gesamten Prozesses kann A2A Benutzern Echtzeit-Feedback, Benachrichtigungen und Statusaktualisierungen bereitstellen.

Nehmen wir als Beispiel eine Forschungseinrichtung. Forscher verwenden intelligente Agenten unter dem A2A-Protokoll, um Forschungen im Zusammenhang mit der Entwicklung neuer Medikamente durchzuführen. Einfache Aufgaben, wie z. B. das schnelle Abrufen vorhandener Arzneimittelmolekülstrukturinformationen in der Datenbank, können innerhalb von Sekunden erledigt und an die Forscher zurückgemeldet werden. Bei komplexen Aufgaben, wie z. B. der Simulation der Reaktion neuer Arzneimittelmoleküle in der menschlichen Körperumgebung, kann es jedoch mehrere Tage dauern.

Während dieser Zeit wird das A2A-Protokoll den Forschern kontinuierlich den Simulationsfortschritt mitteilen, z. B. wie viele Schritte abgeschlossen wurden, welche aktuellen Probleme aufgetreten sind usw., sodass die Forscher stets auf dem Laufenden bleiben, so als ob ein Assistent ständig über den Arbeitsfortschritt berichtet.

Fünftens ist die Welt der intelligenten Agenten nicht auf Text beschränkt, daher unterstützt A2A verschiedene Modalitäten, darunter Audio, Bilder und Videostreams.

Stellen Sie sich vor, dass in Zukunft Ihr intelligenter Assistent, das CRM-System des Unternehmens, die Lieferkettenmanagement-KI und sogar intelligente Agenten auf verschiedenen Cloud-Plattformen wie alte Freunde ‘über Aufgaben chatten und Arbeit aufteilen’ können, wodurch verschiedene Anforderungen von einfachen Abfragen bis hin zu komplexen Prozessen effizient erfüllt werden und so die Ära der Maschinenintelligenz eröffnet wird.

Derzeit unterstützt das Protokoll bereits Anwendungsplattformen für mehr als 50 Mainstream-Technologieunternehmen, darunter Atlassian, Box, Cohere, Intuit, MongoDB, PayPal, Salesforce und SAP.

Es ist erwähnenswert, dass dies alles Unternehmen sind, die subtile Beziehungen zum Google-Ökosystem haben. Cohere, ein unabhängiges KI-Startup, wurde beispielsweise 2019 von drei Forschern gegründet, die zuvor bei Google Brain gearbeitet haben. Sie haben eine langfristige technische Partnerschaft mit Google Cloud, und Google Cloud stellt Cohere die Rechenleistung zur Verfügung, die zum Trainieren von Modellen benötigt wird.

Atlassian, ein Unternehmen, das Team-Collaboration-Tools wie Jira und Confluence anbietet, wird von vielen Menschen verwendet. Sie haben eine Partnerschaft mit Google, und einige Anwendungen können in Google-Produkten verwendet werden.

Obwohl Google sagte, dass A2A eine Ergänzung zum von Anthropic vorgeschlagenen MCP-Modellkontextprotokoll ist, ist dies ein bisschen so, als würde Google in der Vergangenheit die Führung bei der Entwicklung des Android-Systems mit mehr als 80 Unternehmen übernehmen. Da immer mehr Unternehmen beitreten, wird der kommerzielle Wert von A2A erheblich gesteigert und die rasante Entwicklung des gesamten intelligenten Agenten-Ökosystems gefördert.

Vom ‘Verbinden von Tools’ zum ‘Dominieren von Ökosystemen’

MCP und A2A repräsentieren zwei unterschiedliche Wege für die KI-Verbindung. MCP stellt als zugrunde liegendes Modellinteraktionsprotokoll ein nahtloses Andocken zwischen Anwendungen und verschiedenen Modellen sicher; A2A bietet auf dieser Grundlage ein Kollaborationsframework zwischen intelligenten Agenten, das die autonome Erkennung und flexible Kollaboration zwischen intelligenten Agenten betont. Diese geschichtete Struktur kann gleichzeitig die Anforderungen der Modellstandardisierung und der intelligenten Agentenkollaboration erfüllen.

Gleichzeitig haben beide eine dominierende Position in ihren jeweiligen Teilbereichen erreicht. MCP hat Vorteile bei Anwendungen auf Unternehmensebene, Modell-übergreifenden Diensten und Standardisierungsszenarien; A2A hat mehr Unterstützung in Open-Source-Communities, Forschungsprojekten und innovativen Anwendungen erhalten.

Aus einer Makroperspektive hängt der Aufstieg von MCP und A2A nicht nur mit zukünftigen KI-Technologiestandards zusammen, sondern kündigt auch einen großen Wandel in der KI-Industrielandschaft an. Wir erleben einen historischen Wendepunkt in der KI von ‘Stand-Alone-Intelligenz’ zu ‘kollaborativen Netzwerken’. Wie die Entwicklungsgeschichte des Internets zeigt, wird die Festlegung offener und standardisierter Protokolle zu einer treibenden Kraft bei der Förderung der Branchenentwicklung.

Aber aus einer tieferen Ebene verbergen MCP und A2A enorme kommerzielle Interessen und den Wettbewerb um die zukünftige KI-Technologie-Diskursmacht.

In Bezug auf Geschäftsmodelle eröffnen die beiden unterschiedliche Gewinnwege. Anthropic plant, einen Unternehmensversionsdienst auf Basis von MCP zu starten und Unternehmen auf der Grundlage des API-Aufrufvolumens Gebühren zu berechnen. Unternehmen nutzen MCP, um interne Daten tief in KI zu integrieren, die Geschäftseffizienz zu verbessern und für diesen bequemen Service bezahlen zu müssen.

Google verwendet das A2A-Protokoll, um Cloud-Service-Abonnements zu fördern. Wenn Unternehmen A2A verwenden, um intelligente Agentenkollaborationsnetzwerke aufzubauen, werden sie angeleitet, die leistungsstarke Rechenleistung und die zugehörigen Dienste von Google Cloud zu nutzen, wodurch die Geschäftseinnahmen von Google Cloud gesteigert werden.

In Bezug auf das Datenmonopol bedeutet das Beherrschen von Protokollstandards die Kontrolle des KI-Datenflusses. Über das A2A-Protokoll sammelt Google während der Zusammenarbeit vieler intelligenter Agenten von Unternehmen riesige Datenmengen. Diese Daten fließen in seine wichtigsten Werbealgorithmen zurück und festigen seine Dominanz im Werbemarkt weiter. Anthropic möchte MCP verwenden, um KI in den Kern von Unternehmensdaten eindringen zu lassen. Wenn es einen Größenvorteil bildet, wird es auch eine große Menge an Branchen