Modellkontextprotokoll: KI & Daten verbinden

Das Modellkontextprotokoll (MCP) entwickelt sich rasch zum grundlegenden Standard für die nächste Generation KI-gesteuerter Anwendungen. Von Anthropic Ende 2024 entwickelt und als offener Standard veröffentlicht, zielt MCP darauf ab, ein zentrales Problem im KI-Ökosystem zu lösen: Wie verbindet man große Sprachmodelle (LLMs) und KI-Agenten nahtlos und sicher mit der riesigen und sich ständig verändernden Welt der realen Daten, Tools und Dienste?

Anthropic erklärt, dass sich mit der Verbesserung von KI-Assistenten und den ihnen zugrunde liegenden großen Sprachmodellen ‘selbst die komplexesten Modelle durch ihre Isolation von Daten eingeschränkt fühlen – gefangen hinter Informationssilos und Altsystemen. Jede neue Datenquelle erforderte ihre eigene benutzerdefinierte Implementierung, was die Skalierung wirklich verbundener Systeme erschwerte.’

MCP ist die Antwort von Anthropic. Das Unternehmen behauptet, dass es einen ‘universellen, offenen Standard für die Verbindung von KI-Systemen mit Datenquellen bereitstellen wird, der fragmentierte Integrationen durch ein einziges Protokoll ersetzt.’

MCP: Ein universeller Adapter für KI-Daten

Meiner Meinung nach ist MCP eine Art universeller KI-Datenadapter. Wie das KI-zentrierte Unternehmen Aisera es ausdrückt, kann man MCP als ‘USB-C für KI’ betrachten. So wie USB-C die Art und Weise standardisiert hat, wie wir Geräte verbinden, standardisiert MCP die Art und Weise, wie KI-Modelle mit externen Systemen interagieren. Mit anderen Worten, Jim Zemlin, Executive Director der Linux Foundation, beschreibt MCP als ‘die grundlegende Kommunikationsschicht für KI-Systeme, ähnlich wie HTTP für das Web.’

Konkret definiert MCP ein Standardprotokoll basierend auf JSON-RPC 2.0, das es KI-Anwendungen ermöglicht, über eine einzige, sichere Schnittstelle Funktionen aufzurufen, Daten abzurufen und Prompts von allen kompatiblen Tools, Datenbanken oder Diensten zu nutzen.

Architektur und Komponenten von MCP

Dies wird durch die Befolgung einer Client-Server-Architektur mit einigen Schlüsselkomponenten erreicht. Diese sind:

  • Host: Die KI-gesteuerte Anwendung, die auf externe Daten zugreifen muss (z. B. Claude Desktop, integrierte Entwicklungsumgebungen (IDEs), Chatbots).
  • Client: Verwaltet eine dedizierte, zustandsbehaftete Verbindung zu einem einzelnen MCP-Server, verarbeitet die Kommunikation und die Aushandlung von Fähigkeiten.
  • Server: Stellt bestimmte Funktionen über das MCP-Protokoll bereit – Tools (Funktionen), Ressourcen (Daten) und Prompts, die eine Verbindung zu lokalen oder Remote-Datenquellen herstellen.
  • Basisprotokoll: Die standardisierte Messaging-Schicht (JSON-RPC 2.0) stellt sicher, dass alle Komponenten zuverlässig und sicher kommunizieren.

Diese Architektur transformiert das ‘M×N-Integrationsproblem’ (bei dem M KI-Anwendungen mit N Tools verbunden werden müssen, was M×N benutzerdefinierte Konnektoren erfordert) in ein einfacheres ‘M+N-Problem’. Folglich muss jedes Tool und jede Anwendung MCP nur einmal unterstützen, um Interoperabilität zu erreichen. Dies kann Entwicklern wirklich Zeit sparen.

Wie MCP funktioniert

Zunächst startet eine KI-Anwendung beim Start einen MCP-Client, wobei jeder Client eine Verbindung zu einem anderen MCP-Server herstellt. Diese Clients verhandeln Protokollversionen und Funktionen. Sobald eine Verbindung zu einem Client hergestellt wurde, fragt dieser den Server nach verfügbaren Tools, Ressourcen und Prompts ab.

Nachdem die Verbindung hergestellt wurde, kann das KI-Modell nun auf Echtzeitdaten und -funktionen des Servers zugreifen und so seinen Kontext dynamisch aktualisieren. Dies bedeutet, dass MCP es KI-Chatbots ermöglicht, auf die neuesten Echtzeitdaten zuzugreifen, anstatt sich auf vorindizierte Datensätze, Einbettungen oder zwischengespeicherte Informationen in LLMs zu verlassen.

Wenn Sie also eine KI auffordern, eine Aufgabe auszuführen (z. B. ‘Wie hoch sind die neuesten Flugpreise von New York nach Los Angeles?’), leitet die KI die Anfrage über den MCP-Client an den relevanten Server weiter. Der Server führt dann die Funktion aus, gibt die Ergebnisse zurück und die KI integriert diese neuesten Daten in Ihre Antwort.

Darüber hinaus ermöglicht MCP es KI-Modellen, neue Tools zur Laufzeit zu entdecken und zu nutzen. Dies bedeutet, dass sich Ihr KI-Agent an neue Aufgaben und Umgebungen anpassen kann, ohne dass größere Codeänderungen oder ein erneutes maschinelles Lernen (ML) erforderlich sind.

Kurz gesagt, MCP ersetzt fragmentierte, kundenspezifische Integrationen durch ein einziges, offenes Protokoll. Dies bedeutet, dass Entwickler MCP nur einmal implementieren müssen, um ein KI-Modell mit einer beliebigen kompatiblen Datenquelle oder einem Tool zu verbinden, wodurch die Integrationskomplexität und der Wartungsaufwand erheblich reduziert werden. Dies macht das Leben der Entwickler einfacher.

Noch direkter ist, dass Sie KI verwenden können, um MCP-Code zu generieren und Implementierungsherausforderungen zu bewältigen.

Die Kernvorteile von MCP

Folgendes bietet MCP:

  • Vereinheitlichte, standardisierte Integration: MCP fungiert als universelles Protokoll, mit dem Entwickler ihre Dienste, APIs und Datenquellen über eine einzige, standardisierte Schnittstelle mit jedem KI-Client verbinden können (z. B. Chatbots, IDEs oder benutzerdefinierte Agenten).

  • Bidirektionale Kommunikation und umfangreiche Interaktionen: MCP unterstützt eine sichere, Echtzeit-, bidirektionale Kommunikation zwischen KI-Modellen und externen Systemen, die nicht nur den Datenabruf, sondern auch den Aufruf von Tools und die Ausführung von Aktionen ermöglicht.

  • Skalierbarkeit und Ökosystem-Wiederverwendung: Sobald Sie MCP für einen Dienst implementiert haben, kann jeder MCP-konforme KI-Client darauf zugreifen, wodurch ein Ökosystem wiederverwendbarer Konnektoren gefördert und die Einführung beschleunigt wird.

  • Konsistenz und Interoperabilität: MCP erzwingt einheitliche JSON-Anfrage-/Antwortformate. Dies erleichtert das Debuggen, Warten und Skalieren von Integrationen unabhängig vom zugrunde liegenden Dienst oder KI-Modell. Dies bedeutet auch, dass die Integration weiterhin zuverlässig ist, selbst wenn Sie Modelle wechseln oder neue Tools hinzufügen.

  • Verbesserte Sicherheit und Zugriffskontrolle: MCP wurde von Grund auf auf Sicherheit ausgelegt und unterstützt Verschlüsselung, granulare Zugriffskontrollen und die Genehmigung sensibler Vorgänge durch Benutzer. Sie können MCP-Server auch selbst hosten, wodurch Ihre Daten intern verbleiben.

  • Reduzierte Entwicklungszeit und Wartung: Durch die Vermeidung fragmentierter, einmaliger Integrationen können Entwickler Zeit bei der Einrichtung und laufenden Wartung sparen, sodass sie sich auf Anwendungslogik und Innovationen auf höherer Ebene konzentrieren können. Darüber hinaus ermöglicht die klare Trennung zwischen Agentenlogik und Backend-Funktionen in MCP eine modularere und wartungsfreundlichere Codebasis.

Einführung und Zukunftsperspektiven von MCP

Für jeden Standard ist das Wichtigste: ‘Werden ihn die Leute übernehmen?’ Nur wenige Monate später ist die Antwort laut und deutlich: Ja. OpenAI hat im März 2025 die Unterstützung hinzugefügt. Am 9. April sprach sich Demis Hassabis, Leiter von Google DeepMind, dafür aus. Sundar Pichai, CEO von Google, stimmte schnell zu. Andere Unternehmen, darunter Microsoft, Replit und Zapier, folgten dem Beispiel.

Dies sind nicht nur Lippenbekenntnisse. Es entsteht eine ständig wachsende Bibliothek vorgefertigter MCP-Konnektoren. Docker hat kürzlich angekündigt, dass es MCP über einen MCP-Katalog unterstützen wird. Weniger als sechs Monate nach dem Start von MCP enthält dieser Katalog bereits mehr als 100 MCP-Server von Unternehmen wie Grafana Labs, Kong, Neo4j, Pulumi, Heroku, Elasticsearch und anderen.

Neben dem, worauf Docker Zugriff hat, gibt es bereits Hunderte von MCP-Servern. Diese Server können für folgende Aufgaben verwendet werden:

  • Kundensupport-Chatbots: KI-Assistenten können in Echtzeit auf CRM-Daten, Produktinformationen und Support-Tickets zugreifen und so genaue, kontextbezogene Hilfe leisten.
  • Enterprise AI Search: KI kann Dokumentenspeicher, Datenbanken und Cloud-Speicher durchsuchen und Antworten mit den entsprechenden Quelldokumenten verknüpfen.
  • Entwicklertools: Codierungsassistenten können mit CVS und anderen Versionskontrollsystemen, Problemverfolgern und Dokumentation interagieren.
  • KI-Agenten: Autonome Agenten können mehrstufige Aufgaben planen, Aktionen im Namen von Benutzern ausführen und sich an veränderte Anforderungen anpassen, indem sie MCP-verbundene Tools und Daten nutzen.

Die eigentliche Frage ist, wofür MCP nicht verwendet werden kann.

MCP stellt einen Paradigmenwechsel dar: von isolierter, statischer KI hin zu tief integrierten, kontextbezogenen und handlungsfähigen Systemen. Mit zunehmender Reife des Protokolls wird es eine neue Generation von KI-Agenten und -Assistenten unterstützen, die sicher, effizient und in großem Maßstab über eine breite Palette digitaler Tools und Daten hinweg denken, handeln und zusammenarbeiten können.

Seit dem ersten explosionsartigen Aufkommen der generativen KI im Jahr 2022 habe ich keine Technologie gesehen, die sich so schnell entwickelt. Aber was mich wirklich daran erinnert, ist das Aufkommen von Kubernetes vor mehr als einem Jahrzehnt. Damals glaubten viele Leute, dass es einen Wettbewerb bei Container-Orchestrierern geben würde, wie Swarm und Mesosphere, Programme, die heute fast vergessen sind. Ich wusste von Anfang an, dass Kubernetes der Gewinner sein würde.

Also, hier ist meine Vorhersage. MCP wird die Verbindung für KI sein, und es wird das volle Potenzial von KI in Unternehmen, der Cloud und darüber hinaus freisetzen.