Die Ankunft von Large Language Models (LLMs) hat die Landschaft der künstlichen Intelligenz unbestreitbar revolutioniert. Eine anhaltende Herausforderung bleibt jedoch bestehen: die effektive Integration dieser Modelle mit proprietären Daten. Während LLMs in der Lage sind, riesige Mengen an Informationen aus dem Internet zu verarbeiten, liegt ihr wahres Potenzial darin, als natürliche Sprachschnittstellen für unsere Anwendungen und Daten zu dienen, so dass wir ihre prädiktiven und generativen Fähigkeiten in einer kontrollierten Umgebung nutzen können.
Um die Zuverlässigkeit und Relevanz der LLM-Ausgaben zu gewährleisten, sind verschiedene Strategien entstanden, die jeweils darauf abzielen, die Kluft zwischen diesen Modellen und bestimmten Datensätzen zu überbrücken. Diese Strategien reichen von der Erstellung benutzerdefinierter Einbettungen und der Verwendung von Retrieval-Augmented Generation (RAG)-Techniken - die Nutzung von Graphdatenbanken zur Aufdeckung komplexer Beziehungen innerhalb von Daten - bis hin zur Verwendung von LLMs zur Destillation und Präsentation von Daten, die über OpenAPI-Aufrufe abgerufen werden, die durch Benutzeraufforderungen ausgelöst werden. Darüber hinaus bietet das von OpenAIs ChatGPT populär gemachte Plug-in-Modell eine weitere Möglichkeit zur Datenintegration. Unter diesen verschiedenen Ansätzen zeichnet sich das Model Context Protocol (MCP) als vielversprechende Lösung zur Standardisierung der Verbindung zwischen LLMs und externen Datenquellen aus.
Enthüllung des Model Context Protocol
Das Model Context Protocol, das von Anthropic Ende 2024 vorgestellt wurde, stellt einen bedeutenden Schritt zur Rationalisierung der Interaktion zwischen LLMs und benutzerspezifischen Daten dar. Dieses Protokoll unterstreicht die entscheidende Rolle des Kontexts in KI-Anwendungen und erkennt an, dass die Fähigkeit der KI, kohärente und aussagekräftige Ausgaben zu liefern, von der Verfügbarkeit relevanter Kontextinformationen abhängt. Sich ausschließlich auf Chat-Eingabeaufforderungen zu verlassen, um vernünftige Antworten zu erhalten, ist bestenfalls eine Übung im Optimismus und schlimmstenfalls ein Rezept für ungenaue oder irreführende Ergebnisse. Um robuste, halbautonome Agenten zu entwickeln, die in der Lage sind, Workflows um unsere Daten herum zu orchestrieren, ist ein zuverlässiger Mechanismus zur Bereitstellung dieser Daten für diese Agenten unerlässlich.
Als Open-Source-Initiative bietet MCP SDK-Implementierungen für eine Vielzahl von Programmiersprachen, begleitet von einer umfassenden Dokumentation in seinem GitHub-Repository. Diese Dokumentation ermöglicht es Entwicklern, MCP-Server effektiv zu implementieren oder zu nutzen. Die Projektbeschreibung von MCP als ‘USB-C-Port für KI-Anwendungen’ erfasst treffend seine Essenz und unterstreicht seine Fähigkeit, Verbindungen zu verschiedenen Datenquellen zu standardisieren. Auf einer standardisierten Grundlage aufgebaut, lässt sich MCP problemlos in bestehende Projekte integrieren und nahtlos mit verschiedenen LLMs und Inferenzanbietern verbinden.
Die Architektur von MCP folgt einem etablierten Client/Server-Modell, wobei ein Broker die Verantwortung für die Übersetzung von MCP-Anfragen in lokale oder Remote-Anfragen übernimmt. Dieses Design spiegelt die Funktionalität von Interface Definition Languages wie CORBA wider und verwandelt MCP in eine vielseitige Interoperabilitätsschicht, die einen nahtlosen Wechsel zwischen Informationsquellen und LLM-Anwendungen ermöglicht. Durch die Nutzung einer JSON-RPC-Verbindung ermöglicht MCP eine feinkörnige Steuerung auf individueller Benutzerebene durch Tools wie Azure API Management.
MCP fördert die Entwicklung generischer Schnittstellen für KI-gesteuerten Code, was sich in der zunehmenden Akzeptanz auf den KI-Entwicklungsplattformen von Microsoft zeigt. Von der Integration in das Semantic Kernel Modellorchestrierungstool bis hin zum Einsatz als MCP-Server, der mit Azure OpenAI und Azure AI Foundry kompatibel ist, gewinnt MCP rasch an Bedeutung. Microsoft erweitert auch Azure API Management um Funktionen zur Kontrolle des Datenzugriffs auf der Grundlage von Benutzeranmeldeinformationen, was die Rolle von MCP in sicheren und verwalteten KI-Bereitstellungen weiter festigt.
Azure MCP Server: Eine frühe Implementierung
Der Open-Source-Azure MCP Server, der kürzlich in der öffentlichen Vorschau veröffentlicht wurde, ist ein Beispiel für eine frühe Implementierung von MCP auf der Microsoft-Plattform. Dieser Server dient als gemeinsamer Broker für den KI-Zugriff auf wichtige Azure-Dienste und hält sich an die Open-Source-Prinzipien, die von vielen aktuellen Azure-Projekten übernommen wurden. Sein Code ist über GitHub leicht zugänglich. Der Azure MCP Server bietet Zugriff auf einen wesentlichen Teil der Azure-Plattform, einschließlich Datenbanken, Speicherlösungen und Dienste wie die Azure CLI.
Die Einbeziehung der Unterstützung für die Azure CLI (und die Developer CLI) ist besonders bemerkenswert, da sie MCP-gesteuerte Agenten in die Lage versetzt, direkt mit Azure zu interagieren und MCP-Aufrufe als Operatoren zu behandeln. Diese Fähigkeit ebnet den Weg für die Entwicklung von Agenten, die eine natürliche Sprach-Self-Service-Schnittstelle zu Azure bieten. Beispielsweise könnte ein Agent eine Beschreibung einer Infrastruktur entgegennehmen und automatisch die für ihre Bereitstellung erforderlichen ARM-Vorlagen generieren. In Weiterführung dieses Konzepts könnte man sich einen multimodalen Agenten vorstellen, der eine Whiteboard-Skizze analysiert, eine Beschreibung der notwendigen Ressourcen ableitet und dann die Infrastruktur bereitstellt, was eine sofortige Codeentwicklung ermöglicht. Zu den zusätzlichen Systemverwaltungsdiensten, die über den Azure MCP Server zugänglich sind, gehören die Auflistung aktueller Ressourcengruppen und die Nutzung von KQL zur Abfrage von Azure Monitoring-Protokollen.
Integration des Azure MCP Server mit GitHub Copilot Chat
Da er den MCP-Standard einhält, lässt sich der Azure MCP Server nahtlos in jedes KI-Tool integrieren, das MCP unterstützt, wie z. B. den GitHub Copilot Agent Mode. Indem Sie den Server einfach zu Ihrem Tenant hinzufügen, können Sie über Copilot Fragen stellen, entweder direkt oder über die Visual Studio Code-Integration. Diese letztere Option bietet ein effektives Mittel, um zu lernen, wie man MCP nutzt und Eingabeaufforderungen für eigene MCP-basierte KI-Anwendungen erstellt.
Derzeit hat Microsoft noch kein dediziertes MCP-Tool für seine Programmiersprachen veröffentlicht, so dass die Verwendung offizieller SDKs zur Entwicklung von benutzerdefiniertem Code erforderlich ist. Mit der Unterstützung für TypeScript, C# und Python haben Entwickler Zugriff auf die notwendigen Werkzeuge, um ihre eigenen Azure MCP-Agenten zu erstellen. Experimente können innerhalb von Visual Studio Code unter Verwendung bestehender Azure-Anmeldeinformationen durchgeführt werden.
Der Server läuft auf Ihrem Entwicklungs-PC und benötigt Node.js. Die Installation erfolgt direkt aus dem GitHub-Repository des Projekts in VS Code. Stellen Sie nach der Installation sicher, dass sowohl die GitHub Copilot- als auch die GitHub Copilot Chat-Erweiterungen so konfiguriert sind, dass sie den experimentellen Agentenmodus verwenden (zugänglich über das VS Code-Einstellungstool). Öffnen Sie anschließend den GitHub Copilot-Chatbereich und schalten Sie in den Agentenmodus um. Vergewissern Sie sich, dass der Azure MCP Server im Dropdown-Menü Tools installiert ist. Sie können nun Abfragen einreichen, z. B. ‘Liste meine Azure-Abonnements’.
Das resultierende Tool erweist sich für jeden, der mit Azure arbeitet, als unschätzbar wertvoll und geht über die Copilot-Integration hinaus. Der Azure MCP Server kann überall dort installiert werden, wo Node.js unterstützt wird, so dass er in benutzerdefinierte Agenten integriert werden kann.
Die Rolle von MCP in Azure AI Foundry
Microsoft erweitert sein Portfolio an MCP-Tools rasant, indem es bestehende Funktionen über MCP zugänglich macht oder deren Nutzung in agentischen Anwendungen ermöglicht. Diese rasante Einführung umfasst Tools für die No-Code-Agentenentwicklung von Copilot Studio, die während des Verfassens dieses Artikels angekündigt wurden.
Azure AI Foundry, die primäre Entwicklungsplattform von Microsoft für die Entwicklung von KI-Anwendungen im großen Maßstab, entwickelt ebenfalls aktiv einen MCP-Server, um den AI Agent Service von Azure zu ergänzen. Diese Integration zielt darauf ab, Agenten, die innerhalb von Azure AI Foundry laufen, mit Clients zu verbinden, die als Teil anderer KI-Anwendungen betrieben werden.
Dieser Dienst ermöglicht es Ihnen, bestehenden KI-Code und -Dienste schnell wiederzuverwenden und sie mit neuen Anwendungen zu verknüpfen. Dienste wie Fabric stellen ihre Agentenfunktionen als AI Agent Service-Endpunkte zur Verfügung, so dass KI-Anwendungen nahtlos eine Verbindung zu wichtigen Geschäftsbereichsdaten herstellen können, wodurch eine wesentliche Grundlage geschaffen wird, um die Risiken von Halluzinationen und Fehlern zu mindern.
Nach der Installation bietet der Server eine Reihe von MCP-Aktionen, um sich mit Agenten zu verbinden und ihnen Abfragen zu senden. Er kann auch verfügbare Agenten auflisten oder einen Standardagenten für bestimmte Aufgaben verwenden. Die Unterstützung für Konversations-Threads ist enthalten, wodurch Agenten ein grundlegendes semantisches Gedächtnis für kontextbezogene Konversationen erhalten. Sie benötigen die Azure AI Agent Service Agent-IDs, um sie mit MCP aufzurufen.
Der Server ist in Python implementiert und kann mit der Azure CLI über pip
installiert werden. Alternativ ist eine TypeScript-Version für diejenigen verfügbar, die diese bevorzugen. Ähnlich wie der Azure MCP Server wird auch dieser Server außerhalb der AI Foundry-Umgebung betrieben, so dass er auf einem Entwicklungs-PC oder als Teil einer Cloud-basierten Anwendung innerhalb eines eigenen Containers oder einer VM installiert werden kann, mit Unterstützung für Windows, macOS und Linux.
Nutzung von MCP-Servern von Semantic Kernel AI-Anwendungen
Als offener Standard ermöglicht MCP die Serverkompatibilität mit jedem Client. Das GitHub-Repository enthält Anweisungen, wie man eine Verbindung mit Anthropic’s Claude Desktop herstellt, aber der wahre Wert liegt im Aufbau benutzerdefinierter Agenten-Workflows innerhalb von Semantic Kernel.
Microsoft stellt Beispielcode zur Verfügung, der zeigt, wie man die MCP-Unterstützung in eine Semantic Kernel-Orchestrierung integriert und sie als ein Kernel-Plug-in behandelt, das sich mit vertrauten Funktionsaufrufen integriert. Diese Integrationen können als Agenten verpackt und bei Bedarf aufgerufen werden. Während die MCP-Integration innerhalb von Semantic Kernel noch in der Entwicklung ist, lässt sie sich nahtlos in die bestehenden Funktionen integrieren und erfordert nur minimalen zusätzlichen Code, um MCP-Tools von einem Server für KI-Anwendungen zugänglich zu machen.
Tools wie MCP sind kritische Komponenten eines modernen KI-Stacks und bieten einen standardisierten Ansatz zum Aufbau auffindbarer Schnittstellen für lokale und Remote-Anwendungen. Einmal definiert, können MCP-Tools einfach aufgerufen werden, wobei ein Server eine Liste der verfügbaren Tools bereitstellt und MCP LLMs ein standardisiertes Mittel zum Aufrufen dieser Tools und zur Nutzung ihrer Ausgaben bietet. Dieser Ansatz trägt wesentlich zur Bereitstellung eines universellen Grounding-Tools für KI-Anwendungen bei, das sowohl mit Standard-APIs, Datenbankabfragen als auch mit KI-Agenten zusammenarbeitet.