W branży agentów AI obserwujemy obecnie znajomą narrację. Agenci AI wykorzystują ogólne możliwości dużych modeli do automatyzacji rozwiązywania złożonych zadań użytkowników przy użyciu istniejących technologii i narzędzi. To pozycjonuje ich jako najbardziej obiecującą drogę do wdrażania technologii modelowych.
W ciągu ostatnich kilku miesięcy nastąpiła eksplozja produktów AI Agent. Głośne oferty, takie jak Manus, zyskały powszechną uwagę, a nowe modele od OpenAI i Google są coraz bardziej ‘AI agent-yzowane’. Co kluczowe, standardowe protokoły szybko zyskują na popularności.
Anthropic udostępnił MCP (Model Communication Protocol) jako open-source pod koniec ubiegłego roku. MCP ma na celu ustanowienie otwartej, znormalizowanej specyfikacji, która umożliwia dużym modelom językowym bezproblemową interakcję z różnymi zewnętrznymi źródłami danych i narzędziami, takimi jak oprogramowanie biznesowe, bazy danych i repozytoria kodu. W ciągu kilku miesięcy od jego wydania, OpenAI, Google, Alibaba i Tencent wyraziły poparcie i zintegrowały go. Następnie Google uruchomił A2A (Agent-to-Agent), którego celem jest automatyzacja współpracy i przepływów pracy między agentami AI. To jeszcze bardziej napędza rozwijający się krajobraz agentów AI.
Zasadniczo protokoły te rozwiązują dwa kluczowe wyzwania: MCP ułatwia połączenia między agentami a dostawcami narzędzi/usług, a A2A umożliwia współpracę między agentami w celu wykonywania bardzo złożonych zadań.
Dlatego MCP można porównać do wczesnych zunifikowanych interfejsów, podczas gdy A2A przypomina protokół HTTP.
Jednak w historii Internetu po pojawieniu się HTTP nastąpił krytyczny element, który był niezbędny do prawdziwego rozwoju Internetu: standardy bezpieczeństwa nałożone na protokół.
Dziś MCP i A2A stoją przed podobnym dylematem.
‘Kiedy pojawił się HTTP, napotkał później poważne wyzwania związane z bezpieczeństwem. Internet przeszedł tę ewolucję’, wyjaśnia Zixi, lider techniczny IIFAA (Internet Industry Financial Authentication Alliance) Trusted Authentication Alliance i ekspert w dziedzinie bezpieczeństwa agentów AI.
Wyzwania te mogą objawiać się w różnych formach. Obecnie złośliwi aktorzy mogą tworzyć fałszywe narzędzia do ‘zapytania o pogodę’ i rejestrować je w serwerach MCP, potajemnie kradnąc informacje o locie użytkownika w tle. Kiedy użytkownik kupuje lekarstwo za pośrednictwem agenta, agent A może być odpowiedzialny za zakup cefpodoksymu, podczas gdy agent B kupuje alkohol. Ze względu na brak możliwości identyfikacji ryzyka między platformami, system nie może wyświetlić ostrzeżenia o ‘niebezpiecznym połączeniu’, jak to robią istniejące platformy e-commerce. Co ważniejsze, uwierzytelnianie agent-agent i własność danych pozostają niejasne. Czy użytkownik autoryzuje lokalną aplikację na swoim urządzeniu, czy synchronizuje prywatne dane z chmurą?
‘A2A w swojej oficjalnej dokumentacji stwierdza, że gwarantuje jedynie bezpieczeństwo transmisji najwyższego poziomu. Pozostawia odpowiedzialność za zapewnienie pochodzenia tożsamości i poświadczeń, prywatności danych i rozpoznawania intencji poszczególnym firmom.’
Prawdziwy rozkwit inteligentnych agentów wymaga rozwiązania tych problemów. IIFAA, gdzie pracuje Zixi, jest pierwszą organizacją, która zaczęła zajmować się tym problemem.
‘W tym kontekście IIFAA jest dedykowana rozwiązywaniu szeregu problemów, z którymi inteligentni agenci będą się mierzyć w przyszłości’, mówi Zixi. ‘W erze A2A zdefiniowaliśmy również podobny produkt o nazwie ASL (Agent Security Layer), który może bazować na protokole MCP, aby zapewnić bezpieczeństwo agentów pod względem uprawnień, danych, prywatności i innych aspektów. Ten produkt pośredniczący rozwiązuje również wyzwania związane z przejściem A2A na przyszłe standardy bezpieczeństwa.’
Grupa Robocza ds. Zaufanej Interkonekcji Inteligentnych Agentów IIFAA jest pierwszą krajową organizacją współpracy w ekosystemie bezpieczeństwa agentów AI. Została ona wspólnie zainicjowana przez China Academy of Information and Communications Technology (CAICT), Ant Group i ponad dwadzieścia innych firm technologicznych i instytucji.
Od ASL do Skalowalności
‘Rozwój AI Agents postępuje szybciej, niż przewidywaliśmy, zarówno pod względem technologicznym, jak i akceptacji standardów przez ekosystem’, mówi Zixi.
Koncepcja protokołu bezpieczeństwa dla komunikacji agent-agent IIFAA pojawiła się już w listopadzie ubiegłego roku, przed wydaniem MCP. Grupa Robocza ds. Zaufanej Interkonekcji Inteligentnych Agentów IIFAA została oficjalnie powołana w grudniu, co zbiegło się z oficjalnym wydaniem MCP.
‘Złośliwi aktorzy czasami opanowują nowe technologie szybciej niż obrońcy. Nie możemy czekać, aż pojawią się problemy, zanim zaczniemy omawiać porządek. To jest konieczność istnienia tej grupy roboczej’, stwierdził członek IIFAA podczas poprzedniej prezentacji. Budowanie norm branżowych dla bezpieczeństwa i wzajemnego zaufania ma kluczowe znaczenie dla długoterminowego, zdrowego rozwoju.
Według Zixi, ich obecne skupienie się koncentruje się na rozwiązaniu następujących kluczowych problemów w pierwszej fazie:
Zaufana Tożsamość Agenta: ‘Naszym celem jest zbudowanie systemu certyfikacji Agenta opartego na autorytatywnych instytucjach i mechanizmach wzajemnego uznawania. Podobnie jak potrzeba posiadania paszportu i wizy do podróży międzynarodowych, pozwoli to certyfikowanym Agentom szybko dołączyć do sieci współpracy i zapobiegnie zakłócaniu porządku współpracy przez niecertyfikowanych Agentów.’
Zaufane Udostępnianie Intencji: ‘Współpraca między inteligentnymi agentami opiera się na autentyczności i dokładności intencji. Dlatego zaufane udostępnianie intencji ma kluczowe znaczenie dla zapewnienia wydajnej i niezawodnej współpracy wieloagentowej.’
Mechanizm Ochrony Kontekstu: ‘Kiedy Agent AI łączy się z wieloma serwerami MCP (protokół wielokanałowy), wszystkie informacje o opisie narzędzia są ładowane do tej samej sesji kontekstu. Złośliwy Serwer MCP może wykorzystać to do wstrzykiwania złośliwych instrukcji. Ochrona kontekstu może zapobiec złośliwej ingerencji, utrzymać bezpieczeństwo systemu, zapewnić integralność intencji użytkownika i zapobiec atakom zatruwającym.’
Ochrona Prywatności Danych: ‘We współpracy wieloagentowej udostępnianie danych może prowadzić do naruszeń prywatności. Ochrona prywatności ma kluczowe znaczenie dla zapobiegania niewłaściwemu wykorzystaniu wrażliwych informacji.’
Zaufane Udostępnianie Pamięci Agenta: ‘Udostępnianie pamięci poprawia wydajność współpracy wieloagentowej. Zaufane udostępnianie pamięci zapewnia spójność, autentyczność i bezpieczeństwo danych, zapobiegając ingerencji i wyciekom, poprawiając skuteczność współpracy i zaufanie użytkowników.’
Zaufany Obieg Tożsamości: ‘Użytkownicy oczekują płynnego i bezproblemowego korzystania z usług w aplikacjach natywnych dla AI. Dlatego osiągnięcie wieloplatformowego, nieinwazyjnego rozpoznawania tożsamości jest kluczem do poprawy komfortu użytkowania.’
‘To są nasze cele krótkoterminowe. Następnie udostępnimy ASL całej branży. Jest to implementacja oprogramowania, a nie specyfikacja protokołu. Można go zastosować do MCP i A2A, aby zwiększyć bezpieczeństwo tych dwóch protokołów na poziomie korporacyjnym. To jest cel krótkoterminowy’, wyjaśnia Zixi.
‘Na początku nie będziemy określać rzeczy na warstwie bezpieczeństwa. Nie będziemy określać A2AS. Zamiast tego mamy nadzieję, że jeśli ktoś określi A2AS w przyszłości, nasz ASL może stać się komponentem implementacji oprogramowania, tak jak SSL jest komponentem implementacji oprogramowania HTTPS.’
Analogie do HTTPS: Zabezpieczanie Przyszłości Agentów AI
Rysując analogie do historii HTTPS, zapewnienie bezpieczeństwa umożliwia szerokie przyjęcie funkcjonalności, takich jak płatności, torując w ten sposób drogę do komercyjnych możliwości na większą skalę. Podobny rytm rozgrywa się obecnie. 15 kwietnia Alipay we współpracy ze społecznością ModelScope zaprezentował usługę ‘Payment MCP Server’. Pozwala to programistom AI na bezproblemową integrację usług płatniczych Alipay za pomocą języka naturalnego, ułatwiając szybkie wdrażanie funkcji płatniczych w agentach AI.
Rozwiązanie tych celów krótkoterminowych jeden po drugim ostatecznie doprowadzi do powstania bezpiecznego standardu i środowiska współpracy Agentów. Kluczem do tego procesu jest osiągnięcie efektu skali. Krajowe ‘sklepy’ MCP, które szybko się rozwijają, już zaczęły działać. Platforma inteligentnych agentów Ant Group Baibaoxiang ‘MCP Zone’ zintegruje rozwiązania bezpieczeństwa IIFAA. Ten ‘Sklep MCP’ obsługuje obecnie wdrażanie i wywoływanie różnych usług MCP, w tym Alipay, Amap i Wuying, umożliwiając najszybsze stworzenie inteligentnego agenta podłączonego do usług MCP w zaledwie 3 minuty.
Zixi uważa, że ogólne możliwości dużych modeli mają potencjał, aby naprawdę zrewolucjonizować doświadczenia użytkowników i paradygmaty interakcji. W przyszłości obecne podejście polegające na wywoływaniu aplikacji w celu wykonania zadań może zostać zastąpione przez super bramę, która opiera się na puli narzędzi ukrytej za kulisami, podobnie jak Sklep MCP. Stanie się to prostsze i bardziej zrozumiałe dla potrzeb użytkowników. Komercjalizacja staje się możliwa.
‘Rozwój AGI wszedł teraz w fazę inteligentnego agenta. W porównaniu z robotami czatującymi i AI z ograniczonymi możliwościami rozumowania, inteligentni agenci w końcu uwolnili się od etapu zamkniętego punkt-punkt, naprawdę otwierając nowy rozdział w zastosowaniach komercyjnych.’
IIFAA niedawno uruchomiła ASL i ogłosiła jej wydanie jako open-source. Otwarcie udostępniając kod, standardy i doświadczenie, ma na celu przyspieszenie innowacji i iteracji technologicznych, zachęcając przedsiębiorstwa branżowe i programistów do szerokiego udziału oraz promując standaryzację technologii w branży. Plan open-source przyjmie najbardziej permisywną licencję Apache 2.0 i udostępni na zewnątrz dokumentację projektową biblioteki kodu dotyczącą praktyk bezpieczeństwa. Globalni programiści mogą uczestniczyć we współtworzeniu w społeczności Github.
Konieczność Bezpieczeństwa w Rozwoju Agenta AI
Powstanie agentów AI stanowi zmianę paradygmatu w sposobie, w jaki wchodzimy w interakcję z technologią. Nie jesteśmy już ograniczeni do dyskretnych aplikacji, ale zmierzamy w kierunku świata, w którym inteligentni agenci mogą bezproblemowo organizować wiele narzędzi i usług, aby osiągnąć nasze cele. Wizja ta zależy jednak od rozwiązania nieodłącznych zagrożeń bezpieczeństwa, które towarzyszą tak potężnej technologii. Tak jak Internet potrzebował HTTPS, aby ułatwić bezpieczny e-commerce i inne wrażliwe transakcje, agenci AI potrzebują solidnych standardów bezpieczeństwa, aby wzbudzić zaufanie i umożliwić powszechne przyjęcie.
Obecny krajobraz rozwoju agentów AI charakteryzuje się szybką innowacją i eksperymentowaniem. Nowe modele, protokoły i aplikacje pojawiają się w bezprecedensowym tempie. Chociaż ta dynamika jest niewątpliwie ekscytująca, stanowi również wyzwanie: obawy dotyczące bezpieczeństwa często ustępują miejsca szybkości i funkcjonalności. Może to prowadzić do luk w zabezpieczeniach, które mogą wykorzystać złośliwi aktorzy, potencjalnie narażając dane użytkowników, zakłócając usługi i podważając zaufanie do całego ekosystemu.
Analogia do wczesnych dni Internetu jest szczególnie trafna. W przypadku braku powszechnych środków bezpieczeństwa Internet był nękany oszustwami, wyłudzeniami i innymi złośliwymi działaniami. Utrudniło to jego wzrost i uniemożliwiło mu osiągnięcie pełnego potencjału. Dopiero wraz z pojawieniem się HTTPS i innych protokołów bezpieczeństwa Internet stał się bezpieczną i niezawodną platformą dla e-commerce, bankowości internetowej i innych wrażliwych transakcji.
Podobnie, agenci AI potrzebują silnego fundamentu bezpieczeństwa, aby zrealizować swój transformacyjny potencjał. Bez takiego fundamentu ryzykują, że staną się wylęgarnią nowych form cyberprzestępczości i wykorzystywania online. Mogłoby to stłumić innowacje, naruszyć zaufanie użytkowników i ostatecznie uniemożliwić agentom AI stanie się wszechobecną i korzystną technologią, którą wielu sobie wyobraża.
Rozwiązywanie Wyzwań Bezpieczeństwa
Wyzwania bezpieczeństwa stojące przed agentami AI są wieloaspektowe i wymagają kompleksowego podejścia. Niektóre z kluczowych wyzwań obejmują:
- Uwierzytelnianie i Autoryzacja: Zapewnienie, że tylko autoryzowani agenci mogą uzyskiwać dostęp do wrażliwych danych i zasobów. Wymaga to solidnych mechanizmów uwierzytelniania i szczegółowych kontroli dostępu.
- Prywatność Danych: Ochrona danych użytkowników przed nieautoryzowanym dostępem, wykorzystaniem lub ujawnieniem. Wymaga to wdrożenia technik zachowania prywatności, takich jak anonimizacja, szyfrowanie i prywatność różnicowa.
- Weryfikacja Intencji: Weryfikacja, czy intencja agenta jest zgodna z celami użytkownika i czy nie jest manipulowana przez złośliwych aktorów. Wymaga to opracowania wyrafinowanych algorytmów rozpoznawania i weryfikacji intencji.
- Bezpieczeństwo Kontekstowe: Ochrona agentów przed złośliwymi atakami, które wykorzystują luki w otaczającym środowisku. Wymaga to wdrożenia solidnych środków bezpieczeństwa na wszystkich warstwach systemu, od sprzętu po oprogramowanie.
- Bezpieczeństwo Agent-Agent: Zapewnienie, że agenci mogą bezpiecznie komunikować się i współpracować ze sobą. Wymaga to opracowania bezpiecznych protokołów komunikacyjnych i mechanizmów zaufania.
ASL IIFAA jest obiecującym krokiem we właściwym kierunku. Zapewniając implementację oprogramowania, która zwiększa bezpieczeństwo MCP i A2A, ASL może pomóc w rozwiązaniu niektórych z tych wyzwań. Jednak należy zrobić więcej, aby stworzyć kompleksowe ramy bezpieczeństwa dla agentów AI.
Droga Naprzód: Współpraca i Standaryzacja
Rozwój bezpiecznych agentów AI wymaga współpracy między badaczami, programistami, interesariuszami branżowymi i decydentami. Niektóre z kluczowych kroków, które należy podjąć, obejmują:
- Opracowanie otwartych standardów: Ustanowienie otwartych standardów bezpieczeństwa agentów AI ma kluczowe znaczenie dla zapewnienia interoperacyjności i promowania innowacji.
- Udostępnianie najlepszych praktyk: Udostępnianie najlepszych praktyk w zakresie bezpiecznego rozwoju agentów AI może pomóc w zapobieganiu powszechnym lukom w zabezpieczeniach i promowaniu kultury bezpieczeństwa.
- Inwestowanie w badania: Inwestowanie w badania nad bezpieczeństwem agentów AI jest niezbędne do opracowania nowych technik i technologii w celu przeciwdziałania pojawiającym się zagrożeniom.
- Promowanie edukacji i świadomości: Promowanie edukacji i świadomości na temat bezpieczeństwa agentów AI może pomóc w podniesieniu poprzeczki dla bezpieczeństwa i zachęcaniu do odpowiedzialnego rozwoju.
- Ustanowienie ram regulacyjnych: Ustanowienie ram regulacyjnych dla bezpieczeństwa agentów AI może pomóc w zapewnieniu priorytetowego traktowania bezpieczeństwa i ochrony użytkowników.
Pracując razem, możemy stworzyć przyszłość, w której agenci AI są nie tylko potężni i korzystni, ale także bezpieczni i godni zaufania. Będzie to wymagało skoordynowanych wysiłków w celu rozwiązania wyzwań bezpieczeństwa, które są przed nami, oraz zbudowania silnego fundamentu bezpieczeństwa dla ekosystemu agentów AI. Tylko wtedy możemy odblokować pełny potencjał agentów AI i stworzyć prawdziwie transformacyjną technologię. Wysiłki organizacji takich jak IIFAA są godne pochwały w przewodzeniu tej inicjatywie, ale powszechne przyjęcie i przestrzeganie standardów bezpieczeństwa ma kluczowe znaczenie dla bezpiecznego i pomyślnego rozwoju agentów AI.