Świat sztucznej inteligencji (AI) nieustannie ewoluuje, a nowe terminy i technologie pojawiają się w szybkim tempie. Jednym z takich terminów, który ostatnio zyskał znaczną uwagę, jest “MCP”, czyli Model Context Protocol. Koncepcja ta wywołała spore podekscytowanie w społeczności AI, przywołując na myśl wczesne dni rozwoju aplikacji mobilnych.
Jak stwierdził prezes Baidu, Li Yanhong, na konferencji Baidu Create 25 kwietnia: “Rozwijanie inteligentnych agentów w oparciu o MCP jest jak rozwijanie aplikacji mobilnych w 2010 roku”. Analogia ta podkreśla potencjalny wpływ MCP na przyszłość aplikacji AI.
Zrozumienie MCP
Jeśli nie znasz jeszcze MCP, prawdopodobnie spotkałeś się z terminem “Agent” (lub inteligentny agent). Gwałtowny wzrost popularności chińskiego startupu Manus na początku 2025 roku wysunął tę koncepcję na pierwszy plan.
Kluczem do atrakcyjności Agenta jest jego zdolność do efektywnego wykonywania zadań. W przeciwieństwie do wcześniejszych dużych modeli językowych (LLM), które służyły głównie jako interfejsy konwersacyjne, Agenci są zaprojektowani do aktywnego wykonywania zadań, wykorzystując zewnętrzne narzędzia i źródła danych. Tradycyjne LLM są ograniczone przez dane treningowe i wymagają złożonych procesów, aby uzyskać dostęp do zasobów zewnętrznych.
MCP ma kluczowe znaczenie dla realizacji wizji Agenta, umożliwiając LLM bezproblemową interakcję z zewnętrznymi narzędziami obsługującymi protokół MCP. Umożliwia im to wykonywanie bardziej konkretnych i złożonych zadań.
Obecnie kilka aplikacji, w tym Amap i WeChat Read, uruchomiło oficjalne serwery MCP. Umożliwia to programistom tworzenie aplikacji AI poprzez wybranie preferowanego LLM i zintegrowanie go z serwerami MCP, takimi jak Amap lub WeChat Read. Pozwala to LLM wykonywać zadania, takie jak zapytania mapowe i wyszukiwanie informacji z książek.
Fala MCP rozpoczęła się w lutym 2024 roku i szybko nabrała tempa na całym świecie.
Główni gracze, tacy jak OpenAI, Google, Meta, Alibaba, Tencent, ByteDance i Baidu, ogłosili wsparcie dla protokołu MCP i uruchomili własne platformy MCP, zapraszając programistów i dostawców usług aplikacyjnych do przyłączenia się.
MCP: Unifikacja ekosystemu AI
Koncepcja “super aplikacji” była gorącym tematem w dziedzinie AI w 2024 roku, z oczekiwaniami szybkiego rozwoju aplikacji AI. Jednak ekosystem innowacji AI pozostał rozdrobniony.
Pojawienie się MCP można porównać do zjednoczenia Chin pod rządami Qin Shi Huang, który ustandaryzował systemy pisania, transportu i miar. Standaryzacja ta znacznie ułatwiła działalność gospodarczą i handel.
Wielu analityków rynkowych uważa, że przyjęcie MCP i podobnych protokołów utoruje drogę do znacznego wzrostu liczby aplikacji AI w 2025 roku.
W istocie, MCP działa jako “super wtyczka” dla AI, umożliwiając bezproblemową integrację z różnymi zewnętrznymi narzędziami i źródłami danych.
Techniczne podstawy MCP
MCP, czyli Model Context Protocol, został po raz pierwszy wprowadzony przez Anthropic w listopadzie 2024 roku.
Jako otwarty standard, MCP umożliwia aplikacjom AI komunikację z zewnętrznymi źródłami danych i narzędziami.
Pomyśl o MCP jako o uniwersalnym adapterze dla LLM, definiującym standardowy “interfejs USB”.
Interfejs ten umożliwia programistom tworzenie aplikacji w bardziej ustandaryzowany i zorganizowany sposób, łącząc się z różnymi źródłami danych i przepływami pracy.
Pokonywanie barier w tworzeniu aplikacji AI
Przed pojawieniem się MCP tworzenie aplikacji AI było procesem trudnym i złożonym.
Na przykład, opracowanie asystenta podróży AI wymagało od LLM wykonywania zadań, takich jak dostęp do map, wyszukiwanie przewodników turystycznych i tworzenie spersonalizowanych planów podróży na podstawie preferencji użytkownika.
Aby umożliwić LLM wykonywanie zapytań mapowych i wyszukiwanie przewodników, programiści stanęli przed następującymi wyzwaniami:
- Każdy dostawca AI (OpenAI, Anthropic itp.) implementował Function Calling inaczej. Przełączanie się między LLM wymagało od programistów przepisania kodu adaptacji, zasadniczo tworząc “instrukcję obsługi” dla LLM do korzystania z zewnętrznych narzędzi. W przeciwnym razie dokładność wyników modelu znacznie by się zmniejszyła.
- Brak ujednoliconego standardu interakcji LLM ze światem zewnętrznym skutkował niską możliwością ponownego wykorzystania kodu, co utrudniało rozwój ekosystemu aplikacji AI.
Według Chen Ziqiana, eksperta ds. technologii algorytmicznych w Alibaba Cloud ModelScope, “Przed MCP programiści musieli rozumieć LLM i wykonywać wtórne prace programistyczne, aby osadzić zewnętrzne narzędzia w swoich aplikacjach. Jeśli wydajność narzędzi była słaba, programiści musieli zbadać, czy problem dotyczy samej aplikacji, czy narzędzi”.
Manus, wspomniany startup AI, jest doskonałym przykładem. W poprzedniej ocenie stwierdzono, że Manus potrzebował wywołać ponad dziesięć narzędzi, aby napisać prosty artykuł prasowy, w tym otworzyć przeglądarkę, przeglądać i pobierać strony internetowe, pisać, weryfikować i dostarczać końcowy wynik.
Jeśli Manus zdecydował się wywołać zewnętrzne narzędzia na każdym etapie, musiał napisać “funkcję”, aby ustalić, jak będą działać zewnętrzne narzędzia. W rezultacie Manus często przerywał zadania z powodu przeciążenia i zużywał nadmierną liczbę tokenów.
Korzyści z MCP
Dzięki MCP programiści nie muszą już odpowiadać za wydajność zewnętrznych narzędzi. Zamiast tego mogą skupić się na utrzymywaniu i debugowaniu samej aplikacji, co znacznie zmniejsza nakład pracy związany z tworzeniem.
Poszczególne serwery w ekosystemie, takie jak Alipay i Amap, mogą utrzymywać swoje usługi MCP, aktualizować je do najnowszych wersji i czekać na połączenie programistów.
Ograniczenia i wyzwania MCP
Pomimo swojego potencjału, ekosystem MCP jest wciąż w początkowej fazie rozwoju i stoi przed kilkoma wyzwaniami.
Niektórzy programiści twierdzą, że MCP jest niepotrzebną warstwą złożoności, sugerując, że interfejsy API są prostszym rozwiązaniem. LLM mogą już wywoływać interfejsy API za pośrednictwem różnych protokołów, co sprawia, że MCP wydaje się zbędny.
Obecnie większość usług MCP udostępnianych przez duże firmy jest definiowana przez same firmy, które określają, które funkcje mogą być wywoływane przez LLM i jak są one planowane. Budzi to jednak obawy, że firmy mogą nie udostępniać dostępu do swoich najważniejszych i aktualnych informacji w czasie rzeczywistym.
Ponadto, jeśli serwery MCP nie zostaną oficjalnie uruchomione lub będą źle utrzymywane, bezpieczeństwo i stabilność połączeń MCP mogą być wątpliwe.
Tang Shuang, niezależny programista, podzielił się przykładem serwera MCP map z mniej niż 20 narzędziami. Pięć z tych narzędzi wymagało szerokości i długości geograficznej, podczas gdy narzędzie pogodowe wymagało identyfikatora jednostki administracyjnej bez podawania instrukcji, jak je uzyskać. Jedynym rozwiązaniem było, aby użytkownicy wrócili do ekosystemu dostawcy usług i wykonali kroki w celu uzyskania informacji i uprawnień.
Chociaż popularność MCP jest oczywista, dynamika bazowa jest złożona. Chociaż dostawcy LLM są skłonni do świadczenia usług MCP, zachowują kontrolę i niechętnie korzystają z innych ekosystemów. Jeśli usługi nie są właściwie utrzymywane, programiści mogą napotkać zwiększone obciążenie pracą, co podważa cel ekosystemu.
Zwycięstwo open source
Dlaczego MCP zyskuje na popularności właśnie teraz?
Początkowo MCP nie spotkał się z dużym zainteresowaniem po jego uruchomieniu przez Anthropic. Tylko ograniczona liczba aplikacji, takich jak Claude Desktop firmy Anthropic, obsługiwała protokół MCP. Programiści nie mieli ujednoliconego ekosystemu rozwoju AI i pracowali głównie w izolacji.
Przyjęcie MCP przez programistów stopniowo wysunęło go na pierwszy plan. Począwszy od lutego 2025 roku, kilka popularnych aplikacji do programowania AI, w tym Cursor, VSCode i Cline, ogłosiło wsparcie dla protokołu MCP, co znacznie podniosło jego rangę.
Po przyjęciu przez społeczność programistów, integracja MCP przez dostawców LLM była kluczowym czynnikiem jego powszechnego przyjęcia.
Ogłoszenie OpenAI o wsparciu dla MCP 27 marca, a następnie Google, było kluczowym krokiem.
Dyrektor generalny Google, Sundar Pichai, wyraził swoją ambiwalencję wobec MCP na X, stwierdzając: “To MCP czy nie MCP, oto jest pytanie”. Jednak zaledwie cztery dni po opublikowaniu tego tweeta Google również ogłosił swoje wsparcie dla MCP.
Szybkie przyjęcie MCP przez głównych graczy w branży AI podkreśla jego potencjał do zmiany sposobu tworzenia i wdrażania aplikacji AI.
Droga naprzód dla MCP
W miarę jak ekosystem MCP będzie się rozwijał, kluczowe będzie zajęcie się istniejącymi ograniczeniami i wyzwaniami. Obejmuje to:
- Standaryzacja: Opracowanie bardziej ustandaryzowanego protokołu MCP, który jest niezależny od poszczególnych dostawców.
- Bezpieczeństwo: Wdrożenie solidnych środków bezpieczeństwa w celu zapewnienia bezpieczeństwa i niezawodności połączeń MCP.
- Konserwacja: Zachęcanie do rozwoju i utrzymywania wysokiej jakości serwerów MCP.
- Dostępność: Uczynienie MCP bardziej dostępnym dla programistów o wszystkich poziomach umiejętności.
Rozwiązując te wyzwania, MCP ma potencjał, aby odblokować nową erę innowacji AI, umożliwiając tworzenie potężniejszych, wszechstronnych i przyjaznych dla użytkownika aplikacji AI.
Podsumowując, chociaż MCP jest wciąż w początkowej fazie rozwoju, jego potencjał do zmiany krajobrazu AI jest niezaprzeczalny. Wspierając bardziej otwarty, ustandaryzowany i oparty na współpracy ekosystem, MCP może utorować drogę do przyszłości, w której AI będzie bardziej dostępna i korzystna dla wszystkich.