Gli agenti intelligenti (AI Agents) sono sistemi alimentati da modelli linguistici di grandi dimensioni, capaci di interagire con il mondo esterno attraverso strumenti e agire per conto degli utenti. La recente emersione di Manus evidenzia l’aspettativa del mercato per applicazioni pratiche degli agenti.
Annunciato a novembre 2024, il Model Context Protocol (MCP) open-source di Anthropic offre una soluzione tecnica per migliorare l’efficienza e la sicurezza degli agenti per scopi generali. MCP semplifica l’integrazione attraverso interfacce standardizzate, aumentando l’efficienza dell’accesso a dati e strumenti. Fortifica anche la sicurezza isolando i modelli da specifiche fonti di dati e migliorando la trasparenza del controllo dei comandi. Questo approccio equilibrato dà priorità all’esperienza dell’utente garantendo al contempo un’autorizzazione controllata.
Sebbene MCP stabilisca una base per la governance degli agenti, non risolve ogni sfida. Ad esempio, non convalida la logica alla base della selezione degli strumenti o l’accuratezza dei risultati dell’esecuzione, né affronta efficacemente la competizione e la collaborazione all’interno dell’ecosistema agente-applicazione.
Sfide Affrontate dagli Agenti per Scopi Generali nell’Applicazione
Un Agente è un sistema dotato di memoria, pianificazione, percezione, invocazione di strumenti e capacità di azione, potenziato da estesi modelli linguistici, che interagisce con l’ambiente esterno attraverso strumenti, agendo per conto dell’utente. L’Agente deve percepire e comprendere le intenzioni dell’utente, ottenere e memorizzare informazioni attraverso il modulo di memoria, formulare e ottimizzare strategie sfruttando il modulo di pianificazione, invocare il modulo strumento per eseguire compiti specifici e implementare piani attraverso il modulo di azione, raggiungendo così l’obiettivo di completare autonomamente i compiti.
Manus è più un Agente per scopi generali, a differenza dei prodotti Agente orientati al flusso di lavoro.
Le aspettative del settore per gli Agenti, in particolare gli Agenti per scopi generali, derivano dalle esigenze collettive che affrontano. Nei mercati dei capitali, gli Agenti rappresentano il percorso a circuito chiuso previsto dal settore per il valore commerciale dei modelli, spostando i prezzi dell’IA dal calcolo basato sui token ai prezzi basati sull’effetto per i servizi personalizzati, con conseguente maggiore redditività. Dal lato utente, le aziende si aspettano che gli Agenti eseguano processi ripetitivi, standardizzati e chiaramente definiti con automazione di precisione, mentre il pubblico si aspetta che gli Agenti portino “vantaggi tecnologici”, diventando “gestori digitali” personalizzati e a bassa soglia per tutti.
Tuttavia, gli Agenti per scopi generali devono affrontare sfide di compatibilità, sicurezza e competitività nell’applicazione. In termini di compatibilità, i modelli devono collaborare in modo efficiente con diversi strumenti e fonti di dati nella chiamata. In termini di sicurezza, gli Agenti devono eseguire compiti in modo chiaro e trasparente secondo le istruzioni dell’utente e allocare ragionevolmente le responsabilità di sicurezza sotto la convergenza dei dati di più parti. In termini di concorrenza, gli Agenti devono risolvere le relazioni competitive e cooperative nel nuovo ecosistema aziendale.
Pertanto, il protocollo MCP, che consente ai modelli di collaborare in modo efficiente con diversi strumenti e fonti di dati e di allocare ragionevolmente le responsabilità di sicurezza sotto la convergenza dei dati di più parti, vale la pena studiare a fondo rispetto al prodotto Manus stesso.
Preoccupazioni di Compatibilità
Il mondo dell’IA è in rapida evoluzione, con nuovi modelli e strumenti che emergono costantemente. Affinché un agente per scopi generali sia veramente utile, deve essere in grado di integrarsi perfettamente con un’ampia varietà di risorse. Ciò presenta una sfida significativa, poiché ogni strumento o fonte di dati può avere la propria interfaccia e formato dati univoci. Senza un approccio standardizzato, gli sviluppatori dovrebbero scrivere codice personalizzato per ogni integrazione, il che richiede tempo ed è inefficiente. Questa mancanza di compatibilità può ostacolare l’adozione diffusa degli agenti AI, poiché gli utenti potrebbero essere riluttanti a investire in una tecnologia che non funziona facilmente con i loro sistemi esistenti.
Rischi per la Sicurezza
Gli agenti AI sono progettati per agire per conto degli utenti, il che significa che spesso hanno accesso a dati e sistemi sensibili. Ciò solleva notevoli preoccupazioni per la sicurezza, poiché un agente compromesso potrebbe essere utilizzato per rubare dati, interrompere le operazioni o persino causare danni fisici. È fondamentale garantire che gli agenti siano progettati pensando alla sicurezza e che siano sottoposti a test e monitoraggio rigorosi per prevenire le vulnerabilità. Inoltre, è importante stabilire linee di responsabilità chiare per la sicurezza, soprattutto quando più parti sono coinvolte nello sviluppo e nella distribuzione di un agente.
Panorama Competitivo
Man mano che gli agenti AI diventano più diffusi, è probabile che interrompano i modelli di business esistenti e creino nuove forme di concorrenza. Ad esempio, un agente in grado di negoziare automaticamente i prezzi con i fornitori potrebbe dare a un’azienda un vantaggio competitivo significativo. Tuttavia, ciò potrebbe anche portare a una corsa al ribasso, poiché le aziende competono per offrire i prezzi più bassi. È importante considerare il potenziale impatto degli agenti AI sul panorama competitivo e sviluppare strategie per affrontare questo nuovo ambiente. Ciò include l’affrontare questioni come la proprietà dei dati, la proprietà intellettuale e il potenziale comportamento anticoncorrenziale.
MCP: Una Soluzione Tecnica per la Compatibilità e la Sicurezza nelle Applicazioni degli Agenti
A novembre 2024, Anthropic ha reso open source il protocollo aperto MCP (Model Context Protocol), consentendo ai sistemi di fornire contesto ai modelli AI e può essere universalizzato in diversi scenari di integrazione. MCP utilizza un’architettura a strati per risolvere i problemi di standardizzazione e sicurezza nelle applicazioni degli agenti. Un’applicazione host (come Manus) si connette contemporaneamente a più programmi di servizio (MCP Server) tramite il client MCP e ogni Server svolge i propri compiti, fornendo accesso standardizzato a una fonte di dati o a un’applicazione.
Innanzitutto, MCP risolve il problema di compatibilità nelle chiamate di dati/strumenti dell’agente attraverso un consenso standard. MCP sostituisce l’integrazione frammentata con un’interfaccia unificata e l’IA deve solo comprendere e rispettare l’accordo per interagire con tutti gli strumenti che soddisfano le specifiche, il che riduce significativamente l’integrazione duplicata. In secondo luogo, MCP ha tre considerazioni in termini di sicurezza. In primo luogo, il modello e specifiche fonti di dati sono isolati sul collegamento dati e i due interagiscono tramite il protocollo MCP Server. Il modello non dipende direttamente dai dettagli interni della fonte di dati, chiarendo la fonte della miscelazione di dati multiparte. Il secondo è migliorare la trasparenza e l’auditabilità del collegamento di comando e controllo attraverso protocolli di comunicazione e risolvere l’asimmetria informativa e le sfide della scatola nera dell’interazione dati utente-modello. Il terzo è garantire la controllabilità del collegamento di autorizzazione rispondendo in base alle autorizzazioni e garantire il controllo dell’utente sull’agente nell’uso di strumenti/dati.
MCP crea un’interfaccia standardizzata e un meccanismo di protezione della sicurezza attraverso un’architettura a strati, raggiungendo un equilibrio tra interoperabilità e sicurezza nelle chiamate di dati e strumenti. A livello di valore per l’utente, MCP offre una collaborazione e un’interazione più forti tra corpi intelligenti e più strumenti e persino corpi più intelligenti. Nella fase successiva, MCP si concentrerà sullo sviluppo del supporto per le connessioni remote.
Interfacce Standardizzate per una Migliore Compatibilità
Una delle caratteristiche principali di MCP è l’uso di interfacce standardizzate. Ciò significa che gli agenti AI possono interagire con diversi strumenti e fonti di dati senza richiedere codice personalizzato per ogni integrazione. Invece, l’agente deve semplicemente comprendere il protocollo MCP, che definisce un insieme comune di comandi e formati di dati. Ciò semplifica notevolmente il processo di integrazione e riduce la quantità di lavoro di sviluppo richiesto. Rende anche più facile passare da diversi strumenti e fonti di dati, poiché l’agente non deve essere riconfigurato ogni volta.
L’uso di interfacce standardizzate promuove anche l’interoperabilità tra diversi agenti AI. Se più agenti supportano tutti il protocollo MCP, possono comunicare e condividere facilmente i dati tra loro. Ciò può portare allo sviluppo di sistemi AI più complessi e sofisticati, in cui più agenti lavorano insieme per risolvere un problema.
Meccanismi di Sicurezza Robusti per la Protezione dei Dati
La sicurezza è una priorità assoluta nella progettazione di MCP. Il protocollo include diversi meccanismi per proteggere i dati e prevenire l’accesso non autorizzato. Una caratteristica fondamentale è l’isolamento dei modelli da specifiche fonti di dati. Ciò significa che l’agente non ha accesso diretto ai dati sottostanti, ma interagisce invece con essi tramite il protocollo MCP Server. Ciò aggiunge un livello di indirezione che rende più difficile a un aggressore compromettere i dati.
MCP include anche meccanismi per migliorare la trasparenza e l’auditabilità dei collegamenti di comando e controllo. Ciò consente agli utenti di vedere esattamente quali comandi vengono inviati all’agente e di verificare che l’agente stia agendo in conformità con le loro istruzioni. Questo è importante per creare fiducia nei sistemi AI, poiché consente agli utenti di comprendere come l’agente sta prendendo decisioni.
Infine, MCP fornisce un meccanismo per controllare l’autorizzazione degli agenti. Ciò consente agli utenti di specificare a quali strumenti e fonti di dati è consentito l’accesso all’agente. Questo è importante per impedire all’agente di accedere a dati sensibili o di eseguire azioni che non è autorizzato a fare.
MCP: Gettare le Basi per la Governance degli Agenti
MCP fornisce garanzie di compatibilità e sicurezza per le chiamate di dati e strumenti, ponendo le basi per la governance degli agenti, ma non può risolvere tutte le sfide affrontate nella governance.
Innanzitutto, in termini di credibilità, MCP non ha formato uno standard normativo per la selezione di fonti di dati e strumenti di chiamata, né ha valutato e verificato i risultati dell’esecuzione. In secondo luogo, MCP non può regolare temporaneamente il nuovo tipo di relazione di cooperazione competitiva commerciale determinata da Agent.
Nel complesso, MCP fornisce una risposta tecnica iniziale alle principali preoccupazioni sulla sicurezza affrontate dagli utenti che utilizzano gli agenti ed è diventato il punto di partenza per la governance degli agenti. Con la popolarizzazione di Agent e altre applicazioni AI, sono necessari metodi distribuiti per soddisfare le esigenze differenziate dei diversi utenti. L’attenzione della governance non è solo la sicurezza del modello, ma anche il requisito fondamentale di soddisfare le esigenze degli utenti. Il protocollo MCP ha compiuto il primo passo nel rispondere alle esigenze degli utenti e nel promuovere la co-governance tecnologica. È anche sulla base di MCP che Agent raggiunge un’efficiente divisione del lavoro e collaborazione di vari strumenti e risorse. Una settimana fa, Google ha reso open source il protocollo Agent2Agent (A2A) per la comunicazione tra agenti, in modo che gli agenti creati su diverse piattaforme possano negoziare compiti e condurre una collaborazione sicura e promuovere lo sviluppo di un’ecologia multi-intelligente.
Affrontare i Problemi di Fiducia e Affidabilità
Sebbene MCP fornisca una solida base per la governance degli agenti, non affronta tutte le sfide. Un’area chiave che necessita di ulteriore attenzione è la questione della fiducia e dell’affidabilità. MCP attualmente non include alcun meccanismo per verificare l’accuratezza dei risultati dell’esecuzione o per garantire che gli agenti stiano selezionando fonti di dati e strumenti appropriati. Ciò significa che gli utenti potrebbero non essere in grado di fidarsi pienamente delle decisioni prese da un agente, soprattutto in situazioni ad alto rischio.
Per affrontare questo problema, sarà necessario sviluppare nuovi standard e best practice per lo sviluppo e la distribuzione degli agenti. Ciò potrebbe includere cose come metodi di verifica formale, che possono essere utilizzati per dimostrare che un agente si comporterà sempre in modo prevedibile e sicuro. Potrebbe anche includere l’uso di tecniche di IA spiegabile, che possono aiutare gli utenti a capire come un agente sta prendendo decisioni.
Navigare nel Nuovo Panorama Competitivo
Un’altra sfida che MCP non affronta completamente è l’impatto degli agenti sul panorama competitivo. Man mano che gli agenti diventano più diffusi, è probabile che interrompano i modelli di business esistenti e creino nuove forme di concorrenza. È importante considerare il potenziale impatto degli agenti sul panorama competitivo e sviluppare strategie per affrontare questo nuovo ambiente. Ciò include l’affrontare questioni come la proprietà dei dati, la proprietà intellettuale e il potenziale comportamento anticoncorrenziale.
Un approccio potenziale è quello di sviluppare nuovi quadri normativi specificamente adattati agli agenti AI. Questi quadri potrebbero affrontare questioni come la privacy dei dati, la distorsione algoritmica e il potenziale di manipolazione del mercato. Potrebbero anche includere meccanismi per promuovere la concorrenza e prevenire i monopoli.
Il Percorso da Seguire: Collaborazione e Innovazione
Lo sviluppo di MCP è un passo avanti significativo nel campo della governance degli agenti. Tuttavia, è importante riconoscere che questo è solo l’inizio. Ci sono ancora molte sfide da superare e richiederà uno sforzo collaborativo da parte di ricercatori, sviluppatori, politici e utenti per garantire che gli agenti AI vengano utilizzati in modo sicuro e responsabile.
Uno sviluppo promettente è la recente pubblicazione del protocollo Agent2Agent (A2A) di Google. Questo protocollo consente agli agenti creati su diverse piattaforme di comunicare e collaborare tra loro. Ciò potrebbe portare allo sviluppo di sistemi AI più complessi e sofisticati, in cui più agenti lavorano insieme per risolvere un problema. Potrebbe anche contribuire a promuovere un ecosistema AI più competitivo e innovativo, poiché gli sviluppatori sono in grado di creare agenti che possono integrarsi perfettamente con altri agenti.
Man mano che la tecnologia AI continua ad evolversi, è fondamentale stare al passo con i tempi e sviluppare nuovi meccanismi di governance in grado di affrontare le sfide del futuro. Ciò richiederà un impegno alla collaborazione, all’innovazione e alla volontà di adattarsi al panorama in continua evoluzione dell’IA.