Thế giới Trí tuệ Nhân tạo (AI) không ngừng phát triển, với các thuật ngữ và công nghệ mới nổi lên với tốc độ chóng mặt. Một thuật ngữ như vậy gần đây đã thu hút được sự chú ý đáng kể là ‘MCP’ hay Giao thức Bối cảnh Mô hình (Model Context Protocol). Khái niệm này đã gây ra sự phấn khích đáng kể trong cộng đồng AI, thu hút sự so sánh với những ngày đầu phát triển ứng dụng di động.
Như Chủ tịch Baidu Li Yanhong đã tuyên bố tại hội nghị Baidu Create vào ngày 25 tháng 4, ‘Phát triển các tác nhân thông minh dựa trên MCP giống như phát triển ứng dụng di động vào năm 2010.’ Sự tương tự này nhấn mạnh tác động tiềm tàng của MCP đối với tương lai của các ứng dụng AI.
Tìm hiểu về MCP
Nếu bạn chưa quen thuộc với MCP, bạn có thể đã gặp thuật ngữ ‘Agent’ (hoặc tác nhân thông minh). Sự gia tăng mức độ phổ biến của Manus, một công ty khởi nghiệp của Trung Quốc, vào đầu năm 2025 đã đưa khái niệm này lên hàng đầu.
Điểm mấu chốt trong sức hấp dẫn của Agent nằm ở khả năng thực hiện các tác vụ một cách hiệu quả. Không giống như các mô hình ngôn ngữ lớn (LLM) trước đây chủ yếu đóng vai trò là giao diện đàm thoại, Agent được thiết kế để chủ động thực hiện các tác vụ, tận dụng các công cụ và nguồn dữ liệu bên ngoài. LLM truyền thống bị giới hạn bởi dữ liệu đào tạo của chúng và yêu cầu các quy trình phức tạp để truy cập các tài nguyên bên ngoài.
MCP rất quan trọng để hiện thực hóa tầm nhìn của Agent, cho phép LLM tương tác liền mạch với các công cụ bên ngoài hỗ trợ giao thức MCP. Điều này cho phép chúng thực hiện các tác vụ cụ thể và phức tạp hơn.
Hiện tại, một số ứng dụng, bao gồm Amap và WeChat Read, đã ra mắt Máy chủ MCP chính thức. Điều này cho phép các nhà phát triển tạo các ứng dụng AI bằng cách chọn LLM ưa thích và tích hợp nó với các máy chủ MCP như Amap hoặc WeChat Read. Điều này cho phép LLM thực hiện các tác vụ như truy vấn bản đồ và truy xuất thông tin từ sách.
Làn sóng MCP bắt đầu vào tháng 2 năm 2024 và đã nhanh chóng đạt được động lực trên toàn thế giới.
Các công ty lớn như OpenAI, Google, Meta, Alibaba, Tencent, ByteDance và Baidu đều đã công bố hỗ trợ giao thức MCP và ra mắt nền tảng MCP của riêng họ, mời các nhà phát triển và nhà cung cấp dịch vụ ứng dụng tham gia.
MCP: Thống nhất Hệ sinh thái AI
Khái niệm ‘siêu ứng dụng’ là một chủ đề nóng trong lĩnh vực AI vào năm 2024, với kỳ vọng về sự gia tăng nhanh chóng của các ứng dụng AI. Tuy nhiên, hệ sinh thái đổi mới AI vẫn còn rời rạc.
Sự xuất hiện của MCP có thể so sánh với sự thống nhất của Trung Quốc dưới thời Tần Thủy Hoàng, người đã tiêu chuẩn hóa hệ thống chữ viết, giao thông và đo lường. Tiêu chuẩn hóa này đã tạo điều kiện thuận lợi cho các hoạt động kinh tế và thương mại.
Nhiều nhà phân tích thị trường tin rằng việc áp dụng MCP và các giao thức tương tự sẽ mở đường cho sự gia tăng đáng kể trong các ứng dụng AI vào năm 2025.
Về bản chất, MCP hoạt động như một ‘siêu trình cắm’ cho AI, cho phép tích hợp liền mạch với các công cụ và nguồn dữ liệu bên ngoài khác nhau.
Nền tảng Kỹ thuật của MCP
MCP hay Giao thức Bối cảnh Mô hình, lần đầu tiên được Anthropic giới thiệu vào tháng 11 năm 2024.
Là một tiêu chuẩn mở, MCP cho phép các ứng dụng AI giao tiếp với các nguồn dữ liệu và công cụ bên ngoài.
Hãy nghĩ về MCP như một bộ điều hợp đa năng cho LLM, xác định ‘giao diện USB’ tiêu chuẩn.
Giao diện này cho phép các nhà phát triển tạo các ứng dụng theo cách tiêu chuẩn hóa và có tổ chức hơn, kết nối với các nguồn dữ liệu và quy trình làm việc khác nhau.
Vượt qua Rào cản Phát triển Ứng dụng AI
Trước sự trỗi dậy của MCP, việc phát triển các ứng dụng AI là một quá trình đầy thách thức và phức tạp.
Ví dụ: việc phát triển một trợ lý du lịch AI yêu cầu LLM thực hiện các tác vụ như truy cập bản đồ, tìm kiếm hướng dẫn du lịch và tạo hành trình cá nhân hóa dựa trên sở thích của người dùng.
Để cho phép LLM truy vấn bản đồ và tìm kiếm hướng dẫn, các nhà phát triển phải đối mặt với những thách thức sau:
- Mỗi nhà cung cấp AI (OpenAI, Anthropic, v.v.) triển khai Function Calling khác nhau. Chuyển đổi giữa các LLM yêu cầu các nhà phát triển viết lại mã thích ứng, về cơ bản là tạo ‘hướng dẫn sử dụng’ cho LLM để sử dụng các công cụ bên ngoài. Nếu không, độ chính xác của đầu ra của mô hình sẽ giảm đáng kể.
- Việc thiếu một tiêu chuẩn thống nhất cho tương tác LLM với thế giới bên ngoài dẫn đến khả năng tái sử dụng mã thấp, cản trở sự phát triển của hệ sinh thái ứng dụng AI.
Theo Chen Ziqian, một chuyên gia công nghệ thuật toán tại Alibaba Cloud ModelScope, ‘Trước MCP, các nhà phát triển cần hiểu LLM và thực hiện phát triển thứ cấp để nhúng các công cụ bên ngoài vào ứng dụng của họ. Nếu hiệu suất của các công cụ kém, các nhà phát triển phải điều tra xem vấn đề nằm ở chính ứng dụng hay các công cụ.’
Manus, công ty khởi nghiệp AI nói trên, đóng vai trò là một ví dụ điển hình. Trong một đánh giá trước đó, người ta thấy rằng Manus cần gọi hơn mười công cụ để viết một bài báo đơn giản, bao gồm mở trình duyệt, duyệt và thu thập dữ liệu trang web, viết, xác minh và cung cấp kết quả cuối cùng.
Nếu Manus chọn gọi các công cụ bên ngoài trong mỗi bước, nó cần viết một ‘hàm’ để sắp xếp cách các công cụ bên ngoài sẽ chạy. Do đó, Manus thường xuyên kết thúc các tác vụ do quá tải và tiêu thụ quá nhiều mã thông báo.
Lợi ích của MCP
Với MCP, các nhà phát triển không còn phải chịu trách nhiệm về hiệu suất của các công cụ bên ngoài. Thay vào đó, họ có thể tập trung vào việc duy trì và gỡ lỗi chính ứng dụng, giảm đáng kể khối lượng công việc phát triển.
Các máy chủ riêng lẻ trong hệ sinh thái, chẳng hạn như Alipay và Amap, có thể duy trì các dịch vụ MCP của họ, cập nhật lên các phiên bản mới nhất và chờ các nhà phát triển kết nối.
Hạn chế và Thách thức của MCP
Mặc dù có tiềm năng, hệ sinh thái MCP vẫn còn ở giai đoạn đầu và phải đối mặt với một số thách thức.
Một số nhà phát triển cho rằng MCP là một lớp phức tạp không cần thiết, cho rằng API là một giải pháp đơn giản hơn. LLM có thể đã gọi API thông qua các giao thức khác nhau, khiến MCP có vẻ thừa.
Hiện tại, hầu hết các dịch vụ MCP do các công ty lớn phát hành đều được xác định bởi chính các công ty, xác định những chức năng nào có thể được LLM gọi và cách chúng được lên lịch. Tuy nhiên, điều này làm dấy lên lo ngại rằng các công ty có thể không cung cấp quyền truy cập vào thông tin quan trọng và thời gian thực nhất của họ.
Hơn nữa, nếu các máy chủ MCP không được khởi chạy chính thức hoặc được bảo trì tốt, thì tính bảo mật và ổn định của các kết nối MCP có thể bị nghi ngờ.
Tang Shuang, một nhà phát triển độc lập, đã chia sẻ một ví dụ về Máy chủ MCP bản đồ với ít hơn 20 công cụ. Năm trong số các công cụ này yêu cầu vĩ độ và kinh độ, trong khi một công cụ thời tiết yêu cầu ID phân chia hành chính mà không cung cấp hướng dẫn về cách lấy các ID này. Giải pháp duy nhất là người dùng quay lại hệ sinh thái của nhà cung cấp dịch vụ và làm theo các bước để lấy thông tin và quyền.
Mặc dù mức độ phổ biến của MCP là rõ ràng, nhưng động lực cơ bản là phức tạp. Mặc dù các nhà cung cấp LLM sẵn sàng cung cấp các dịch vụ MCP, nhưng họ vẫn giữ quyền kiểm soát và do dự trong việc mang lại lợi ích cho các hệ sinh thái khác. Nếu các dịch vụ không được bảo trì đúng cách, các nhà phát triển có thể phải đối mặt với khối lượng công việc tăng lên, làm suy yếu mục đích của hệ sinh thái.
Chiến thắng của Mã nguồn mở
Tại sao MCP lại được chú ý vào lúc này?
Ban đầu, MCP nhận được ít sự chú ý sau khi được Anthropic ra mắt. Chỉ một số lượng hạn chế các ứng dụng, chẳng hạn như Anthropic’s Claude Desktop, hỗ trợ giao thức MCP. Các nhà phát triển thiếu một hệ sinh thái phát triển AI thống nhất và chủ yếu làm việc biệt lập.
Việc các nhà phát triển áp dụng MCP đã dần đưa nó lên hàng đầu. Bắt đầu từ tháng 2 năm 2025, một số ứng dụng lập trình AI phổ biến, bao gồm Cursor, VSCode và Cline, đã công bố hỗ trợ giao thức MCP, nâng cao đáng kể hồ sơ của nó.
Sau khi cộng đồng nhà phát triển áp dụng, việc tích hợp MCP của các nhà cung cấp LLM là yếu tố then chốt trong việc áp dụng rộng rãi nó.
Thông báo của OpenAI về việc hỗ trợ MCP vào ngày 27 tháng 3, tiếp theo là Google, là một bước quan trọng.
Giám đốc điều hành của Google, Sundar Pichai, bày tỏ sự mâu thuẫn của mình đối với MCP trên X, nói rằng, ‘MCP hay không MCP, đó là câu hỏi.’ Tuy nhiên, chỉ bốn ngày sau khi đăng tweet này, Google cũng đã công bố hỗ trợ MCP.
Việc các công ty lớn trong ngành AI nhanh chóng áp dụng MCP nhấn mạnh tiềm năng của nó trong việc chuyển đổi cách các ứng dụng AI được phát triển và triển khai.
Con đường phía trước cho MCP
Khi hệ sinh thái MCP tiếp tục phát triển, điều quan trọng là phải giải quyết những hạn chế và thách thức hiện có. Điều này bao gồm:
- Tiêu chuẩn hóa: Phát triển một giao thức MCP tiêu chuẩn hóa hơn, độc lập với các nhà cung cấp riêng lẻ.
- Bảo mật: Thực hiện các biện pháp bảo mật mạnh mẽ để đảm bảo an toàn và độ tin cậy của các kết nối MCP.
- Khả năng bảo trì: Khuyến khích phát triển và bảo trì các máy chủ MCP chất lượng cao.
- Khả năng tiếp cận: Làm cho MCP dễ tiếp cận hơn với các nhà phát triển ở mọi cấp độ kỹ năng.
Bằng cách giải quyết những thách thức này, MCP có tiềm năng mở ra một kỷ nguyên đổi mới AI mới, cho phép tạo ra các ứng dụng AI mạnh mẽ, linh hoạt và thân thiện với người dùng hơn.
Tóm lại, mặc dù MCP vẫn còn ở giai đoạn đầu, nhưng tiềm năng của nó trong việc chuyển đổi bối cảnh AI là không thể phủ nhận. Bằng cách thúc đẩy một hệ sinh thái mở, tiêu chuẩn hóa và hợp tác hơn, MCP có thể mở đường cho một tương lai nơi AI dễ tiếp cận và mang lại lợi ích cho mọi người hơn.