Ngành công nghiệp AI agent hiện đang trải qua một câu chuyện quen thuộc. AI agent tận dụng các khả năng chung của các mô hình lớn để tự động hóa việc giải quyết các tác vụ phức tạp của người dùng bằng cách sử dụng các công nghệ và công cụ hiện có. Điều này định vị chúng là con đường hứa hẹn nhất để triển khai công nghệ mô hình ngày nay.
Trong vài tháng qua, đã có một sự bùng nổ của các sản phẩm AI agent. Các sản phẩm nổi bật như Manus đã thu hút sự chú ý của công chúng và các mô hình mới từ OpenAI và Google ngày càng được ‘AI agent-ized’. Quan trọng là, các giao thức tiêu chuẩn đang nhanh chóng đạt được sức hút.
Anthropic đã phát hành MCP (Giao thức Giao tiếp Mô hình) dưới dạng mã nguồn mở vào cuối năm ngoái. MCP nhằm mục đích thiết lập một đặc tả mở, tiêu chuẩn hóa cho phép các mô hình ngôn ngữ lớn tương tác liền mạch với nhiều nguồn dữ liệu và công cụ bên ngoài khác nhau, chẳng hạn như phần mềm kinh doanh, cơ sở dữ liệu và kho lưu trữ mã. Trong vòng vài tháng kể từ khi phát hành, OpenAI, Google, Alibaba và Tencent đều đã bày tỏ sự ủng hộ và tích hợp nó. Sau đó, Google đã ra mắt A2A (Agent-to-Agent), với mục tiêu tự động hóa sự hợp tác và quy trình làm việc giữa các AI agent. Điều này đã thúc đẩy hơn nữa bối cảnh AI agent đang phát triển mạnh mẽ.
Về bản chất, các giao thức này giải quyết hai thách thức chính: MCP tạo điều kiện kết nối giữa các agent và nhà cung cấp công cụ/dịch vụ, trong khi A2A cho phép kết nối hợp tác giữa các agent để hoàn thành các tác vụ phức tạp cao.
Do đó, MCP có thể được ví như các giao diện thống nhất ban đầu, trong khi A2A giống với giao thức HTTP.
Tuy nhiên, trong lịch sử của internet, sự ra đời của HTTP được theo sau bởi một yếu tố quan trọng cần thiết cho sự thịnh vượng thực sự của internet: các tiêu chuẩn bảo mật được xếp lớp lên trên giao thức.
Ngày nay, MCP và A2A phải đối mặt với một tình huống tương tự.
‘Khi HTTP xuất hiện, sau đó nó đã gặp phải những thách thức bảo mật đáng kể. Internet đã trải qua sự phát triển này’, Zixi, Trưởng nhóm Kỹ thuật của IIFAA (Liên minh Xác thực Tài chính Công nghiệp Internet) Trusted Authentication Alliance và một chuyên gia về bảo mật AI agent, giải thích.
Những thách thức này có thể biểu hiện dưới nhiều hình thức khác nhau. Hiện tại, các tác nhân độc hại có thể tạo ra các công cụ ‘yêu cầu thời tiết’ giả mạo và đăng ký chúng với các máy chủ MCP, bí mật đánh cắp thông tin chuyến bay của người dùng ở chế độ nền. Khi người dùng mua thuốc thông qua một agent, agent A có thể chịu trách nhiệm mua cefpodoxime, trong khi agent B mua rượu. Do thiếu khả năng xác định rủi ro trên nhiều nền tảng, hệ thống không thể cung cấp cảnh báo ‘kết hợp nguy hiểm’, như các nền tảng thương mại điện tử hiện có. Quan trọng hơn, xác thực agent-to-agent và quyền sở hữu dữ liệu vẫn chưa rõ ràng. Người dùng có đang ủy quyền cho một ứng dụng cục bộ trên thiết bị của họ hay họ đang đồng bộ hóa dữ liệu riêng tư lên đám mây?
‘A2A, trong tài liệu chính thức của mình, nói rằng nó chỉ đảm bảo tính bảo mật của việc truyền tải cấp cao nhất. Nó để lại trách nhiệm đảm bảo nguồn gốc của danh tính và thông tin xác thực, quyền riêng tư dữ liệu và nhận dạng ý định cho các công ty riêng lẻ.’
Sự phát triển thực sự của các agent thông minh đòi hỏi những vấn đề này phải được giải quyết. IIFAA, nơi Zixi làm việc, là tổ chức đầu tiên bắt đầu giải quyết vấn đề này.
‘Trong bối cảnh này, IIFAA chuyên giải quyết một loạt các vấn đề mà các agent thông minh sẽ phải đối mặt trong tương lai’, Zixi nói. ‘Trong kỷ nguyên A2A, chúng tôi cũng đã xác định một sản phẩm tương tự gọi là ASL (Lớp Bảo mật Agent), có thể xây dựng dựa trên giao thức MCP để đảm bảo tính bảo mật của các agent về quyền, dữ liệu, quyền riêng tư và các khía cạnh khác. Sản phẩm phần mềm trung gian này cũng giải quyết những thách thức của việc chuyển đổi A2A sang các tiêu chuẩn bảo mật trong tương lai.’
Nhóm Công tác Kết nối Tin cậy Agent Thông minh IIFAA là tổ chức hợp tác hệ sinh thái bảo mật AI agent trong nước đầu tiên. Nó được khởi xướng chung bởi Học viện Công nghệ Thông tin và Truyền thông Trung Quốc (CAICT), Ant Group và hơn hai mươi công ty và tổ chức công nghệ khác.
Từ ASL đến Khả năng Mở rộng
‘Sự phát triển của AI Agent đang diễn ra nhanh hơn chúng tôi dự đoán, cả về mặt công nghệ và về sự chấp nhận các tiêu chuẩn của hệ sinh thái’, Zixi nói.
Khái niệm về một giao thức bảo mật cho giao tiếp agent-to-agent của IIFAA đã xuất hiện sớm nhất là vào tháng 11 năm ngoái, trước khi phát hành MCP. Nhóm Công tác Kết nối Tin cậy Agent Thông minh IIFAA đã chính thức được thành lập vào tháng 12, trùng với thời điểm phát hành chính thức của MCP.
‘Các tác nhân độc hại đôi khi làm chủ các công nghệ mới nhanh hơn những người bảo vệ. Chúng ta không thể đợi đến khi các vấn đề phát sinh mới thảo luận về trật tự. Đó là sự cần thiết của sự tồn tại của nhóm công tác này’, một thành viên IIFAA đã tuyên bố trong một bài thuyết trình trước đó. Xây dựng các chuẩn mực ngành cho bảo mật và sự tin tưởng lẫn nhau là rất quan trọng cho sự phát triển lành mạnh lâu dài.
Theo Zixi, trọng tâm hiện tại của họ là giải quyết các vấn đề chính sau đây trong giai đoạn đầu:
Danh tính Tin cậy của Agent: ‘Chúng tôi mong muốn xây dựng một hệ thống chứng nhận Agent dựa trên các tổ chức có thẩm quyền và các cơ chế công nhận lẫn nhau. Giống như cần hộ chiếu và thị thực cho du lịch quốc tế, điều này sẽ cho phép các Agent được chứng nhận nhanh chóng tham gia mạng lưới hợp tác và ngăn chặn các Agent chưa được chứng nhận phá vỡ trật tự hợp tác.’
Chia sẻ Ý định Tin cậy: ‘Sự hợp tác giữa các agent thông minh dựa trên tính xác thực và chính xác của ý định. Do đó, việc chia sẻ ý định tin cậy là rất quan trọng để đảm bảo sự hợp tác đa agent hiệu quả và đáng tin cậy.’
Cơ chế Bảo vệ Bối cảnh: ‘Khi một AI Agent kết nối với nhiều máy chủ MCP (giao thức đa kênh), tất cả thông tin mô tả công cụ sẽ được tải vào cùng một bối cảnh phiên. Một Máy chủ MCP độc hại có thể khai thác điều này để đưa vào các hướng dẫn độc hại. Bảo vệ bối cảnh có thể ngăn chặn sự can thiệp độc hại, duy trì tính bảo mật của hệ thống, đảm bảo tính toàn vẹn của ý định của người dùng và ngăn chặn các cuộc tấn công gây nhiễm độc.’
Bảo vệ Quyền riêng tư Dữ liệu: ‘Trong sự hợp tác đa agent, việc chia sẻ dữ liệu có thể dẫn đến vi phạm quyền riêng tư. Bảo vệ quyền riêng tư là rất quan trọng để ngăn chặn việc lạm dụng thông tin nhạy cảm.’
Chia sẻ Tin cậy Bộ nhớ Agent: ‘Chia sẻ bộ nhớ cải thiện hiệu quả của sự hợp tác đa agent. Chia sẻ tin cậy bộ nhớ đảm bảo tính nhất quán, tính xác thực và tính bảo mật của dữ liệu, ngăn chặn sự giả mạo và rò rỉ, nâng cao hiệu quả hợp tác và sự tin tưởng của người dùng.’
Lưu hành Tin cậy Danh tính: ‘Người dùng mong đợi trải nghiệm dịch vụ liền mạch và suôn sẻ trong các ứng dụng gốc AI. Do đó, việc đạt được nhận dạng danh tính không xâm phạm, đa nền tảng là chìa khóa để nâng cao trải nghiệm người dùng.’
‘Đây là những mục tiêu ngắn hạn của chúng tôi. Tiếp theo, chúng tôi sẽ phát hành ASL cho toàn ngành. Đây là một triển khai phần mềm, không phải là một đặc tả giao thức. Nó có thể được áp dụng cho MCP và A2A để tăng cường bảo mật cấp doanh nghiệp của hai giao thức này. Đây là mục tiêu ngắn hạn’, Zixi giải thích.
‘Ngay từ đầu, chúng tôi sẽ không chỉ định mọi thứ ở lớp bảo mật. Chúng tôi sẽ không chỉ định A2AS. Thay vào đó, chúng tôi hy vọng rằng nếu ai đó chỉ định A2AS trong tương lai, ASL của chúng tôi có thể trở thành một thành phần triển khai phần mềm, giống như SSL là một thành phần triển khai phần mềm của HTTPS.’
Phép Loại Suy HTTPS: Đảm Bảo Tương Lai của AI Agent
Vẽ ra những điểm tương đồng với lịch sử của HTTPS, việc đảm bảo an ninh cho phép áp dụng rộng rãi các chức năng như thanh toán, do đó mở đường cho các cơ hội thương mại quy mô lớn hơn. Một nhịp điệu tương tự đang diễn ra hiện nay. Vào ngày 15 tháng 4, Alipay đã hợp tác với cộng đồng ModelScope để tiết lộ dịch vụ ‘Máy chủ MCP Thanh toán’. Điều này cho phép các nhà phát triển AI tích hợp liền mạch các dịch vụ thanh toán Alipay bằng ngôn ngữ tự nhiên, tạo điều kiện triển khai nhanh chóng các chức năng thanh toán trong AI agent.
Giải quyết những mục tiêu ngắn hạn này từng mục tiêu một cuối cùng sẽ dẫn đến việc hình thành một tiêu chuẩn và môi trường hợp tác Agent an toàn. Chìa khóa để quá trình này là đạt được hiệu ứng mở rộng quy mô. Các ‘cửa hàng’ MCP trong nước đang di chuyển nhanh chóng đã bắt đầu hành động. ‘Vùng MCP’ của nền tảng agent thông minh Baibaoxiang của Ant Group sẽ tích hợp các giải pháp bảo mật của IIFAA. ‘Cửa hàng MCP’ này hiện hỗ trợ việc triển khai và gọi các dịch vụ MCP khác nhau, bao gồm Alipay, Amap và Wuying, cho phép tạo ra một agent thông minh được kết nối với các dịch vụ MCP nhanh nhất chỉ trong 3 phút.
Zixi tin rằng các khả năng chung của các mô hình lớn có tiềm năng thực sự cách mạng hóa trải nghiệm người dùng và các mô hình tương tác. Trong tương lai, cách tiếp cận hiện tại là gọi Ứng dụng để hoàn thành các tác vụ có thể được thay thế bằng một cổng siêu lớn dựa trên một nhóm công cụ ẩn đằng sau hậu trường, tương tự như Cửa hàng MCP. Điều này sẽ trở nên đơn giản hơn và hiểu rõ hơn về nhu cầu của người dùng. Thương mại hóa trở nên khả thi.
‘Sự phát triển của AGI hiện đã bước vào giai đoạn agent thông minh. So với robot trò chuyện và AI có khả năng lý luận hạn chế, agent thông minh cuối cùng đã thoát khỏi giai đoạn đóng kín điểm-điểm, thực sự mở ra một chương mới trong các ứng dụng thương mại.’
IIFAA gần đây đã ra mắt ASL và công bố phát hành mã nguồn mở của nó. Bằng cách chia sẻ công khai mã, tiêu chuẩn và kinh nghiệm, nó nhằm mục đích tăng tốc đổi mới và lặp lại công nghệ, thúc giục các doanh nghiệp và nhà phát triển ngành tham gia rộng rãi và thúc đẩy tiêu chuẩn hóa công nghệ trong ngành. Kế hoạch mã nguồn mở sẽ áp dụng giấy phép Apache 2.0 cho phép nhất và cung cấp các phương pháp bảo mật tài liệu thiết kế thư viện mã bên ngoài. Các nhà phát triển toàn cầu có thể tham gia vào quá trình xây dựng chung trong cộng đồng Github.
Sự Cần Thiết của Bảo mật trong Phát triển AI Agent
Sự trỗi dậy của AI agent thể hiện một sự thay đổi mô hình trong cách chúng ta tương tác với công nghệ. Chúng ta không còn bị giới hạn trong các ứng dụng riêng biệt, mà thay vào đó, chúng ta đang tiến tới một thế giới nơi các agent thông minh có thể điều phối liền mạch vô số công cụ và dịch vụ để đạt được mục tiêu của chúng ta. Tuy nhiên, tầm nhìn này phụ thuộc vào việc giải quyết các rủi ro bảo mật vốn có đi kèm với một công nghệ mạnh mẽ như vậy. Giống như internet yêu cầu HTTPS để tạo điều kiện cho thương mại điện tử an toàn và các giao dịch nhạy cảm khác, AI agent cần các tiêu chuẩn bảo mật mạnh mẽ để thúc đẩy sự tin tưởng và cho phép áp dụng rộng rãi.
Bối cảnh hiện tại của sự phát triển AI agent được đặc trưng bởi sự đổi mới và thử nghiệm nhanh chóng. Các mô hình, giao thức và ứng dụng mới đang nổi lên với tốc độ chưa từng có. Mặc dù tính năng động này chắc chắn là thú vị, nhưng nó cũng đặt ra một thách thức: các mối quan tâm về bảo mật thường bị bỏ lại phía sau tốc độ và chức năng. Điều này có thể dẫn đến các lỗ hổng mà các tác nhân độc hại có thể khai thác, có khả năng xâm phạm dữ liệu người dùng, làm gián đoạn dịch vụ và phá hoại niềm tin vào toàn bộ hệ sinh thái.
Phép loại suy cho những ngày đầu của internet là đặc biệt phù hợp. Khi không có các biện pháp bảo mật lan rộng, internet đã bị ảnh hưởng bởi các trò gian lận, gian lận và các hoạt động độc hại khác. Điều này cản trở sự tăng trưởng của nó và ngăn nó đạt được tiềm năng đầy đủ. Chỉ với sự ra đời của HTTPS và các giao thức bảo mật khác, internet mới trở thành một nền tảng an toàn và đáng tin cậy cho thương mại điện tử, ngân hàng trực tuyến và các giao dịch nhạy cảm khác.
Tương tự, AI agent cần một nền tảng bảo mật vững chắc để nhận ra tiềm năng chuyển đổi của chúng. Nếu không có một nền tảng như vậy, họ có nguy cơ trở thành nơi sinh sản cho các hình thức tội phạm mạng và khai thác trực tuyến mới. Điều này có thể kìm hãm sự đổi mới, làm xói mòn niềm tin của người dùng và cuối cùng ngăn AI agent trở thành công nghệ phổ biến và có lợi mà nhiều người hình dung.
Giải quyết các Thách thức Bảo mật
Các thách thức bảo mật mà AI agent phải đối mặt là đa diện và đòi hỏi một cách tiếp cận toàn diện. Một số thách thức chính bao gồm:
- Xác thực và Ủy quyền: Đảm bảo rằng chỉ các agent được ủy quyền mới có thể truy cập dữ liệu và tài nguyên nhạy cảm. Điều này đòi hỏi các cơ chế xác thực mạnh mẽ và kiểm soát truy cập chi tiết.
- Quyền riêng tư Dữ liệu: Bảo vệ dữ liệu người dùng khỏi truy cập, sử dụng hoặc tiết lộ trái phép. Điều này đòi hỏi việc triển khai các kỹ thuật bảo tồn quyền riêng tư như ẩn danh, mã hóa và quyền riêng tư khác biệt.
- Xác minh Ý định: Xác minh rằng ý định của một agent phù hợp với mục tiêu của người dùng và nó không bị thao túng bởi các tác nhân độc hại. Điều này đòi hỏi việc phát triển các thuật toán nhận dạng và xác minh ý định tinh vi.
- Bảo mật Theo ngữ cảnh: Bảo vệ agent khỏi các cuộc tấn công độc hại khai thác các lỗ hổng trong môi trường xung quanh. Điều này đòi hỏi việc triển khai các biện pháp bảo mật mạnh mẽ ở tất cả các lớp của hệ thống, từ phần cứng đến phần mềm.
- Bảo mật Agent-to-Agent: Đảm bảo rằng các agent có thể giao tiếp và hợp tác an toàn với nhau. Điều này đòi hỏi việc phát triển các giao thức giao tiếp an toàn và các cơ chế tin cậy.
ASL của IIFAA là một bước đi đầy hứa hẹn theo hướng đúng đắn. Bằng cách cung cấp một triển khai phần mềm giúp tăng cường bảo mật của MCP và A2A, ASL có thể giúp giải quyết một số thách thức này. Tuy nhiên, cần phải làm nhiều hơn nữa để tạo ra một khuôn khổ bảo mật toàn diện cho AI agent.
Con đường phía trước: Hợp tác và Tiêu chuẩn hóa
Sự phát triển của AI agent an toàn đòi hỏi một nỗ lực hợp tác liên quan đến các nhà nghiên cứu, nhà phát triển, các bên liên quan trong ngành và các nhà hoạch định chính sách. Một số bước chính cần được thực hiện bao gồm:
- Phát triển các tiêu chuẩn mở: Thiết lập các tiêu chuẩn mở cho bảo mật AI agent là rất quan trọng để đảm bảo khả năng tương tác và thúc đẩy sự đổi mới.
- Chia sẻ các phương pháp hay nhất: Chia sẻ các phương pháp hay nhất cho phát triển AI agent an toàn có thể giúp ngăn ngừa các lỗ hổng phổ biến và thúc đẩy một nền văn hóa bảo mật.
- Đầu tư vào nghiên cứu: Đầu tư vào nghiên cứu về bảo mật AI agent là điều cần thiết để phát triển các kỹ thuật và công nghệ mới để giải quyết các mối đe dọa mới nổi.
- Thúc đẩy giáo dục và nâng cao nhận thức: Thúc đẩy giáo dục và nâng cao nhận thức về bảo mật AI agent có thể giúp nâng cao tiêu chuẩn bảo mật và khuyến khích sự phát triển có trách nhiệm.
- Thiết lập các khuôn khổ pháp lý: Thiết lập các khuôn khổ pháp lý cho bảo mật AI agent có thể giúp đảm bảo rằng bảo mật được ưu tiên và người dùng được bảo vệ.
Bằng cách làm việc cùng nhau, chúng ta có thể tạo ra một tương lai nơi AI agent không chỉ mạnh mẽ và có lợi mà còn an toàn và đáng tin cậy. Điều này sẽ đòi hỏi một nỗ lực phối hợp để giải quyết các thách thức bảo mật đang chờ đợi và xây dựng một nền tảng bảo mật vững chắc cho hệ sinh thái AI agent. Chỉ khi đó chúng ta mới có thể mở khóa toàn bộ tiềm năng của AI agent và tạo ra một công nghệ thực sự chuyển đổi. Những nỗ lực của các tổ chức như IIFAA rất đáng khen ngợi trong việc dẫn đầu sáng kiến này, nhưng việc áp dụng rộng rãi và tuân thủ các tiêu chuẩn bảo mật là rất quan trọng cho sự phát triển an toàn và thịnh vượng của AI agent.