L’industria degli agenti AI sta vivendo una fase ben nota. Gli agenti AI sfruttano le capacità generali dei modelli di grandi dimensioni per automatizzare la risoluzione di compiti complessi degli utenti utilizzando tecnologie e strumenti esistenti. Questo li posiziona come la via più promettente per implementare la tecnologia dei modelli oggi.
Negli ultimi mesi, c’è stata un’esplosione di prodotti di agenti AI. Offerte di alto profilo come Manus hanno attirato l’attenzione mainstream e nuovi modelli di OpenAI e Google sono sempre più ‘agent-izzati’. Fondamentalmente, i protocolli standard stanno rapidamente guadagnando terreno.
Anthropic ha rilasciato MCP (Model Communication Protocol) come open-source alla fine dello scorso anno. MCP mira a stabilire una specifica aperta e standardizzata che consenta ai modelli linguistici di grandi dimensioni di interagire senza problemi con varie fonti di dati e strumenti esterni, come software aziendali, database e repository di codice. Entro pochi mesi dalla sua uscita, OpenAI, Google, Alibaba e Tencent hanno espresso il loro sostegno e lo hanno integrato. Successivamente, Google ha lanciato A2A (Agent-to-Agent), con l’obiettivo di automatizzare la collaborazione e i flussi di lavoro tra gli agenti AI. Questo ha ulteriormente alimentato il fiorente panorama degli agenti AI.
In sostanza, questi protocolli affrontano due sfide chiave: MCP facilita le connessioni tra agenti e fornitori di strumenti/servizi, mentre A2A consente connessioni collaborative tra agenti per svolgere compiti altamente complessi.
Pertanto, MCP può essere paragonato alle prime interfacce unificate, mentre A2A assomiglia al protocollo HTTP.
Tuttavia, nella storia di Internet, l’avvento di HTTP è stato seguito da un elemento critico necessario per la reale prosperità di Internet: standard di sicurezza stratificati sopra il protocollo.
Oggi, MCP e A2A affrontano una situazione simile.
‘Quando HTTP è emerso, in seguito ha incontrato sfide di sicurezza significative. Internet ha vissuto questa evoluzione,’ spiega Zixi, Technical Lead di IIFAA (Internet Industry Financial Authentication Alliance) Trusted Authentication Alliance ed esperto in sicurezza degli agenti AI.
Queste sfide possono manifestarsi in varie forme. Attualmente, gli attori malintenzionati possono creare falsi strumenti di ‘richiesta meteo’ e registrarli con i server MCP, rubando di nascosto le informazioni sui voli degli utenti in background. Quando un utente acquista farmaci tramite un agente, l’agente A potrebbe essere responsabile dell’acquisto di cefpodoxime, mentre l’agente B acquista alcol. A causa della mancanza di funzionalità di identificazione del rischio cross-platform, il sistema non può fornire un avviso di ‘combinazione pericolosa’, come fanno le piattaforme di e-commerce esistenti. Ancora più importante, l’autenticazione da agente ad agente e la proprietà dei dati rimangono poco chiare. L’utente sta autorizzando un’applicazione locale sul proprio dispositivo o sta sincronizzando i dati privati sul cloud?
‘A2A, nella sua documentazione ufficiale, afferma che garantisce solo la sicurezza della trasmissione di livello superiore. Lascia la responsabilità di garantire le origini dell’identità e delle credenziali, la privacydei dati e il riconoscimento dell’intento alle singole aziende.’
La vera fioritura degli agenti intelligenti richiede che questi problemi siano affrontati. L’IIFAA, dove lavora Zixi, è la prima organizzazione ad affrontare questo problema.
‘In questo contesto, l’IIFAA si dedica a risolvere una serie di problemi che gli agenti intelligenti dovranno affrontare in futuro,’ afferma Zixi. ‘Nell’era di A2A, abbiamo anche definito un prodotto simile chiamato ASL (Agent Security Layer), che può basarsi sul protocollo MCP per garantire la sicurezza degli agenti in termini di permessi, dati, privacy e altri aspetti. Questo prodotto middleware affronta anche le sfide della transizione di A2A ai futuri standard di sicurezza.’
L’IIFAA Intelligent Agent Trusted Interconnection Working Group è la prima organizzazione nazionale di collaborazione per l’ecosistema di sicurezza degli agenti AI. È stato avviato congiuntamente dalla China Academy of Information and Communications Technology (CAICT), Ant Group e più di altre venti aziende e istituzioni tecnologiche.
Da ASL alla scalabilità
‘Lo sviluppo degli agenti AI sta avvenendo più velocemente di quanto previsto, sia tecnologicamente sia in termini di accettazione degli standard da parte dell’ecosistema,’ afferma Zixi.
Il concetto di un protocollo di sicurezza per la comunicazione da agente ad agente dell’IIFAA è emerso già nel novembre dello scorso anno, prima del rilascio di MCP. L’IIFAA Intelligent Agent Trusted Interconnection Working Group è stato ufficialmente istituito a dicembre, in concomitanza con il rilascio ufficiale di MCP.
‘Gli attori malintenzionati a volte padroneggiano le nuove tecnologie più velocemente dei difensori. Non possiamo aspettare che sorgano problemi prima di discutere dell’ordine. Questa è la necessità dell’esistenza di questo gruppo di lavoro,’ ha dichiarato un membro dell’IIFAA in una presentazione precedente. Costruire insieme norme di settore per la sicurezza e la fiducia reciproca è fondamentale per uno sviluppo sano a lungo termine.
Secondo Zixi, il loro obiettivo attuale è affrontare i seguenti problemi chiave nella prima fase:
Identità affidabile dell’agente: ‘Miriamo a costruire un sistema di certificazione dell’agente basato su istituzioni autorevoli e meccanismi di riconoscimento reciproco. Proprio come avere bisogno di un passaporto e di un visto per i viaggi internazionali, questo consentirà agli agenti certificati di aderire rapidamente a una rete di collaborazione e impedirà agli agenti non certificati di interrompere l’ordine collaborativo.’
Condivisione affidabile dell’intento: ‘La collaborazione tra agenti intelligenti si basa sull’autenticità e l’accuratezza dell’intento. Pertanto, la condivisione affidabile dell’intento è fondamentale per garantire una collaborazione multi-agente efficiente e affidabile.’
Meccanismo di protezione del contesto: ‘Quando un agente AI si connette a più server MCP (protocollo multi-canale), tutte le informazioni sulla descrizione dello strumento vengono caricate nello stesso contesto di sessione. Un server MCP dannoso potrebbe sfruttare questo per iniettare istruzioni dannose. La protezione del contesto può prevenire interferenze dannose, mantenere la sicurezza del sistema, garantire l’integrità dell’intento dell’utente e prevenire attacchi di avvelenamento.’
Protezione della privacy dei dati: ‘Nella collaborazione multi-agente, la condivisione dei dati può portare a violazioni della privacy. La protezione della privacy è fondamentale per prevenire l’uso improprio di informazioni sensibili.’
Condivisione affidabile della memoria dell’agente: ‘La condivisione della memoria migliora l’efficienza della collaborazione multi-agente. La condivisione affidabile della memoria garantisce la coerenza, l’autenticità e la sicurezza dei dati, prevenendo manomissioni e perdite, migliorando l’efficacia della collaborazione e la fiducia dell’utente.’
Circolazione affidabile dell’identità: ‘Gli utenti si aspettano un’esperienza di servizio fluida e senza interruzioni nelle applicazioni native AI. Pertanto, raggiungere il riconoscimento dell’identità cross-platform e non intrusivo è fondamentale per migliorare l’esperienza dell’utente.’
‘Questi sono i nostri obiettivi a breve termine. Successivamente, rilasceremo ASL all’intero settore. Questa è un’implementazione software, non una specifica del protocollo. Può essere applicata a MCP e A2A per migliorare la sicurezza a livello aziendale di questi due protocolli. Questo è l’obiettivo a breve termine,’ spiega Zixi.
‘Inizialmente, non specificheremo le cose a livello di sicurezza. Non specificheremo A2AS. Invece, speriamo che se qualcuno specificherà A2AS in futuro, il nostro ASL possa diventare un componente di implementazione software, proprio come SSL è un componente di implementazione software di HTTPS.’
L’analogia HTTPS: proteggere il futuro degli agenti AI
Tracciando paralleli con la storia di HTTPS, la garanzia di sicurezza consente l’adozione diffusa di funzionalità come il pagamento, aprendo così la strada a opportunità commerciali su larga scala. Un ritmo simile si sta svolgendo attualmente. Il 15 aprile, Alipay ha collaborato con la community ModelScope per svelare il servizio ‘Payment MCP Server’. Ciò consente agli sviluppatori di AI di integrare senza problemi i servizi di pagamento Alipay utilizzando il linguaggio naturale, facilitando la rapida implementazione delle funzionalità di pagamento all’interno degli agenti AI.
Affrontare questi obiettivi a breve termine uno per uno alla fine si tradurrà nella formazione di un ambiente e di uno standard di collaborazione degli agenti sicuro. La chiave di questo processo è raggiungere un effetto di scala. I ‘negozi’ MCP nazionali che si muovono rapidamente hanno già iniziato ad agire. La ‘MCP Zone’ della piattaforma di agenti intelligenti Baibaoxiang di Ant Group integrerà le soluzioni di sicurezza IIFAA. Questo ‘MCP Store’ supporta attualmente l’implementazione e l’invocazione di vari servizi MCP, tra cui Alipay, Amap e Wuying, consentendo la creazione più rapida di un agente intelligente connesso ai servizi MCP in soli 3 minuti.
Zixi ritiene che le capacità generali dei modelli di grandi dimensioni abbiano il potenziale per rivoluzionare veramente le esperienze utente e i paradigmi di interazione. In futuro, l’approccio attuale di chiamare le App per completare le attività potrebbe essere sostituito da un super gateway che si basa su un pool di strumenti nascosto dietro le quinte, simile a un MCP Store. Questo diventerà più semplice e più comprensivo delle esigenze degli utenti. La commercializzazione diventa possibile.
‘Lo sviluppo di AGI è ora entrato nella fase degli agenti intelligenti. Rispetto ai robot di chat e all’IA con capacità di ragionamento limitate, gli agenti intelligenti si sono finalmente liberati dalla fase chiusa punto a punto, aprendo veramente un nuovo capitolo nelle applicazioni commerciali.’
L’IIFAA ha recentemente lanciato ASL e ha annunciato il suo rilascio open-source. Condividendo apertamente codice, standard ed esperienza, mira ad accelerare l’innovazione tecnologica e l’iterazione, esortando le imprese e gli sviluppatori del settore a partecipare ampiamente e promuovendo la standardizzazione della tecnologia all’interno del settore. Il piano open-source adotterà la licenza Apache 2.0 più permissiva e renderà disponibili esternamente le pratiche di sicurezza del documento di progettazione della libreria di codice. Gli sviluppatori globali possono partecipare alla co-costruzione all’interno della community Github.
L’imperativo della sicurezza nello sviluppo di agenti AI
L’ascesa degli agenti AI rappresenta un cambio di paradigma nel modo in cui interagiamo con la tecnologia. Non siamo più confinati a singole applicazioni, ma ci stiamo muovendo verso un mondo in cui gli agenti intelligenti possono orchestrare senza problemi una moltitudine di strumenti e servizi per raggiungere i nostri obiettivi. Questa visione, tuttavia, dipende dall’affrontare i rischi di sicurezza intrinseci che accompagnano una tecnologia così potente. Proprio come Internet richiedeva HTTPS per facilitare l’e-commerce sicuro e altre transazioni sensibili, gli agenti AI hanno bisogno di solidi standard di sicurezza per promuovere la fiducia e consentire l’adozione diffusa.
L’attuale panorama dello sviluppo di agenti AI è caratterizzato da una rapida innovazione e sperimentazione. Nuovi modelli, protocolli e applicazioni stanno emergendo a un ritmo senza precedenti. Mentre questo dinamismo è indubbiamente eccitante, pone anche una sfida: le preoccupazioni per la sicurezza spesso passano in secondo piano rispetto alla velocità e alla funzionalità. Ciò può portare a vulnerabilità che gli attori malintenzionati possono sfruttare, potenzialmente compromettendo i dati degli utenti, interrompendo i servizi e minando la fiducia nell’intero ecosistema.
L’analogia con i primi giorni di Internet è particolarmente azzeccata. In assenza di misure di sicurezza diffuse, Internet è stato afflitto da truffe, frodi e altre attività dannose. Ciò ha ostacolato la sua crescita e gli ha impedito di raggiungere il suo pieno potenziale. Solo con l’avvento di HTTPS e altri protocolli di sicurezza Internet è diventata una piattaforma sicura e affidabile per l’e-commerce, l’online banking e altre transazioni sensibili.
Allo stesso modo, gli agenti AI hanno bisogno di una solida base di sicurezza per realizzare il loro potenziale di trasformazione. Senza tale fondazione, rischiano di diventare un terreno fertile per nuove forme di criminalità informatica e sfruttamento online. Ciò potrebbe soffocare l’innovazione, erodere la fiducia degli utenti e, in definitiva, impedire agli agenti AI di diventare la tecnologia onnipresente e vantaggiosa che molti immaginano.
Affrontare le sfide della sicurezza
Le sfide della sicurezza che gli agenti AI devono affrontare sono molteplici e richiedono un approccio globale. Alcune delle principali sfide includono:
- Autenticazione e autorizzazione: garantire che solo gli agenti autorizzati possano accedere a dati e risorse sensibili. Ciò richiede meccanismi di autenticazione robusti e controlli di accesso granulari.
- Privacy dei dati: proteggere i dati degli utenti da accessi, usi o divulgazioni non autorizzati. Ciò richiede l’implementazione di tecniche di protezione della privacy come l’anonimizzazione, la crittografia e la privacy differenziale.
- Verifica dell’intento: verificare che l’intento di un agente sia allineato con gli obiettivi dell’utente e che non venga manipolato da attori malintenzionati. Ciò richiede lo sviluppo di sofisticati algoritmi di riconoscimento e verifica dell’intento.
- Sicurezza contestuale: proteggere gli agenti da attacchi dannosi che sfruttano le vulnerabilità nell’ambiente circostante. Ciò richiede l’implementazione di solide misure di sicurezza a tutti i livelli del sistema, dall’hardware al software.
- Sicurezza da agente ad agente: garantire che gli agenti possano comunicare e collaborare in modo sicuro tra loro. Ciò richiede lo sviluppo di protocolli di comunicazione sicuri e meccanismi di fiducia.
L’ASL di IIFAA è un passo promettente nella giusta direzione. Fornendo un’implementazione software che migliora la sicurezza di MCP e A2A, ASL può aiutare ad affrontare alcune di queste sfide. Tuttavia, è necessario fare di più per creare un quadro di sicurezza completo per gli agenti AI.
Il percorso da seguire: collaborazione e standardizzazione
Lo sviluppo di agenti AI sicuri richiede uno sforzo collaborativo che coinvolga ricercatori, sviluppatori, stakeholder del settore e responsabili politici. Alcuni dei passi chiave da intraprendere includono:
- Sviluppo di standard aperti: stabilire standard aperti per la sicurezza degli agenti AI è fondamentale per garantire l’interoperabilità e promuovere l’innovazione.
- Condivisione delle migliori pratiche: condividere le migliori pratiche per lo sviluppo sicuro di agenti AI può aiutare a prevenire le vulnerabilità comuni e promuovere una cultura della sicurezza.
- Investimento nella ricerca: investire nella ricerca sulla sicurezza degli agenti AI è essenziale per sviluppare nuove tecniche e tecnologie per affrontare le minacce emergenti.
- Promozione dell’istruzione e della consapevolezza: promuovere l’istruzione e la consapevolezza sulla sicurezza degli agenti AI può aiutare ad alzare l’asticella per la sicurezza e incoraggiare uno sviluppo responsabile.
- Definizione di quadri normativi: definire quadri normativi per la sicurezza degli agenti AI può aiutare a garantire che la sicurezza sia prioritaria e che gli utenti siano protetti.
Lavorando insieme, possiamo creare un futuro in cui gli agenti AI non siano solo potenti e vantaggiosi, ma anche sicuri e affidabili. Ciò richiederà uno sforzo concertato per affrontare le sfide della sicurezza che ci attendono e per costruire una solida base di sicurezza per l’ecosistema degli agenti AI. Solo allora potremo sbloccare il pieno potenziale degli agenti AI e creare una tecnologia veramente trasformativa. Gli sforzi di organizzazioni come IIFAA sono encomiabili nel guidare questa iniziativa, ma l’adozione diffusa e il rispetto degli standard di sicurezza sono fondamentali per lo sviluppo sicuro e prospero degli agenti AI.