Светът на изкуствения интелект (AI) непрекъснато се развива, като нови термини и технологии се появяват с бързи темпове. Един такъв термин, който напоследък привлече значително внимание, е ‘MCP’ или Model Context Protocol. Тази концепция предизвика значително вълнение в AI общността, като направи паралели с ранните дни на разработването на мобилни приложения.
Както председателят на Baidu, Ли Яндхонг, заяви на конференцията Baidu Create на 25 април, ‘Разработването на интелигентни агенти, базирани на MCP, е като разработването на мобилни приложения през 2010 г.’ Тази аналогия подчертава потенциалното въздействие на MCP върху бъдещето на AI приложенията.
Разбиране на MCP
Ако все още не сте запознати с MCP, вероятно сте срещали термина ‘Agent’ (или интелигентен агент). Рязкото нарастване на популярността на Manus, китайски стартъп, в началото на 2025 г. изведе тази концепция на преден план.
Ключът към привлекателността на Agent се крие в способността му да изпълнява задачи ефективно. За разлика от по-ранните големи езикови модели (LLM), които основно служеха като интерфейси за разговори, Agents са проектирани активно да изпълняват задачи, като използват външни инструменти и източници на данни. Традиционните LLM са ограничени от своите данни за обучение и изискват сложни процеси за достъп до външни ресурси.
MCP е от решаващо значение за реализирането на визията на Agent, позволявайки на LLM да взаимодействат безпроблемно с външни инструменти, които поддържат MCP протокола. Това им позволява да изпълняват по-специфични и сложни задачи.
Понастоящем няколко приложения, включително Amap и WeChat Read, са пуснали официални MCP сървъри. Това дава възможност на разработчиците да създават AI приложения, като изберат предпочитан LLM и го интегрират с MCP сървъри като Amap или WeChat Read. Това позволява на LLM да изпълнява задачи като заявки за карти и извличане на информация от книги.
MCP вълната започна през февруари 2024 г. и бързо набра скорост в световен мащаб.
Големи играчи като OpenAI, Google, Meta, Alibaba, Tencent, ByteDance и Baidu обявиха подкрепа за MCP протокола и пуснаха свои собствени MCP платформи, като поканиха разработчици и доставчици на услуги за приложения да се присъединят.
MCP: Обединяване на AI екосистемата
Концепцията за ‘супер приложения’ беше гореща тема в областта на AI през 2024 г., с очаквания за бързо разпространение на AI приложения. Въпреки това, AI иновационната екосистема остана фрагментирана.
Появата на MCP може да се сравни с обединението на Китай при Цин Ши Хуанг, който стандартизира системите за писане, транспорт и измерване. Тази стандартизация значително улесни икономическата дейност и търговията.
Много пазарни анализатори смятат, че приемането на MCP и подобни протоколи ще проправи пътя за значително нарастване на AI приложенията през 2025 г.
По същество, MCP действа като ‘супер плъгин’ за AI, позволявайки безпроблемна интеграция с различни външни инструменти и източници на данни.
Техническата основа на MCP
MCP, или Model Context Protocol, беше въведен за първи път от Anthropic през ноември 2024 г.
Като отворен стандарт, MCP позволява на AI приложенията да комуникират с външни източници на данни и инструменти.
Мислете за MCP като за универсален адаптер за LLM, дефиниращ стандартен ‘USB интерфейс’.
Този интерфейс позволява на разработчиците да създават приложения по по-стандартизиран и организиран начин, свързвайки се с различни източници на данни и работни процеси.
Преодоляване на бариерите пред разработването на AI приложения
Преди възхода на MCP, разработването на AI приложения беше предизвикателен и сложен процес.
Например, разработването на AI туристически асистент изискваше LLM да изпълнява задачи като достъп до карти, търсене на туристически ръководства и създаване на персонализирани маршрути въз основа на потребителските предпочитания.
За да се даде възможност на LLM да търси карти и да търси ръководства, разработчиците се сблъскаха със следните предизвикателства:
- Всеки AI доставчик (OpenAI, Anthropic и т.н.) прилагаше Function Calling по различен начин. Превключването между LLM изискваше от разработчиците да пренапишат кода за адаптация, като по същество създаваха ‘ръководство за потребителя’ за LLM за използване на външни инструменти. В противен случай точността на резултата на модела би намаляла значително.
- Липсата на единен стандарт за взаимодействие на LLM с външния свят доведе до ниска възможност за повторна употреба на код, възпрепятствайки развитието на AI приложната екосистема.
Според Чен Зикиан, експерт по алгоритмични технологии в Alibaba Cloud ModelScope, ‘Преди MCP разработчиците трябваше да разберат LLM и да извършат вторично развитие, за да вградят външни инструменти в своите приложения. Ако производителността на инструментите беше лоша, разработчиците трябваше да проучат дали проблемът е в самото приложение или в инструментите.’
Manus, гореспоменатият AI стартъп, служи като отличен пример. В предишна оценка беше установено, че Manus трябва да извика повече от десет инструмента, за да напише проста новинарска статия, включително отваряне на браузър, разглеждане и извличане на уеб страници, писане, проверка и доставка на крайния резултат.
Ако Manus избереше да извика външни инструменти във всяка стъпка, той трябваше да напише ‘функция’, за да подреди как ще работят външните инструменти. В резултат на това Manus често прекратяваше задачи поради претоварване и консумираше прекомерни количества токени.
Ползите от MCP
С MCP разработчиците вече не трябва да отговарят за производителността на външните инструменти. Вместо това, те могат да се съсредоточат върху поддържането и отстраняването на грешки в самото приложение, което значително намалява обема на работа при разработване.
Отделните сървъри в екосистемата, като Alipay и Amap, могат да поддържат своите MCP услуги, да се актуализират до най-новите версии и да чакат разработчиците да се свържат.
Ограничения и предизвикателства на MCP
Въпреки потенциала си, MCP екосистемата все още е в начален етап на развитие и е изправена пред няколко предизвикателства.
Някои разработчици твърдят, че MCP е ненужен слой сложност, като предполагат, че API са по-просто решение. LLM вече могат да извикват API чрез различни протоколи, което прави MCP да изглежда излишно.
Понастоящем повечето MCP услуги, пуснати от големи компании, са дефинирани от самите компании, определяйки кои функции могат да бъдат извикани от LLM и как са планирани. Това обаче поражда опасения, че компаниите може да не осигурят достъп до най-важната си информация в реално време.
Освен това, ако MCP сървърите не са официално пуснати или добре поддържани, сигурността и стабилността на MCP връзките може да бъде под въпрос.
Танг Шуанг, независим разработчик, сподели пример за MCP сървър за карти с по-малко от 20 инструмента. Пет от тези инструменти изискваха географска ширина и дължина, докато инструмент за времето изискваше идентификатор на административно деление, без да предоставя инструкции как да се получат тези идентификатори. Единственото решение беше потребителите да се върнат към екосистемата на доставчика на услуги и да следват стъпките за получаване на информация и разрешения.
Въпреки че популярността на MCP е очевидна, основните динамики са сложни. Въпреки че LLM доставчиците са готови да предоставят MCP услуги, те запазват контрол и се колебаят да се възползват други екосистеми. Ако услугите не се поддържат правилно, разработчиците могат да се сблъскат с увеличен обем на работа, което подкопава целта на екосистемата.
Победата на отворения код
Защо MCP набира скорост сега?
Първоначално MCP получи малко внимание след стартирането си от Anthropic. Само ограничен брой приложения, като Claude Desktop на Anthropic, поддържаха MCP протокола. На разработчиците липсваше единна AI развойна екосистема и работеха предимно в изолация.
Приемането на MCP от разработчиците постепенно го изведе на преден план. Започвайки през февруари 2025 г., няколко популярни AI програмистки приложения, включително Cursor, VSCode и Cline, обявиха подкрепа за MCP протокола, което значително повиши неговия профил.
След приемането на MCP от общността на разработчиците, интегрирането на MCP от LLM доставчиците беше ключовият фактор за широкото му приемане.
Обявяването на OpenAI за подкрепа на MCP на 27 март, последвано от Google, беше решаваща стъпка.
Главният изпълнителен директор на Google, Сундар Пичай, изрази амбивалентността си към MCP в X, заявявайки: ‘Да MCP или да не MCP, това е въпросът.’ Въпреки това, само четири дни след публикуването на този туит, Google също обяви подкрепата си за MCP.
Бързото приемане на MCP от големите играчи в AI индустрията подчертава потенциала му да трансформира начина, по който AI приложенията се разработват и разгръщат.
Пътят напред за MCP
Тъй като MCP екосистемата продължава да се развива, ще бъде от решаващо значение да се справят със съществуващите ограничения и предизвикателства. Това включва:
- Стандартизация: Разработване на по-стандартизиран MCP протокол, който е независим от отделните доставчици.
- Сигурност: Прилагане на стабилни мерки за сигурност, за да се гарантира безопасността и надеждността на MCP връзките.
- Поддръжка: Насърчаване на разработването и поддръжката на висококачествени MCP сървъри.
- Достъпност: Направата на MCP по-достъпен за разработчици от всички нива на умения.
Чрез справяне с тези предизвикателства, MCP има потенциала да отключи нова ера на AI иновации, позволявайки създаването на по-мощни, гъвкави и удобни за потребителя AI приложения.
В заключение, въпреки че MCP е все още в начален етап на развитие, неговият потенциал да трансформира AI пейзажа е неоспорим. Чрез насърчаване на по-отворена, стандартизирана и съвместна екосистема, MCP може да проправи пътя за бъдеще, в което AI е по-достъпен и полезен за всички.