La Partita AI: MCP e A2A Creano 'Muri Alti'?

L’industria dell’intelligenza artificiale (AI) sta vivendo una fase di intense competizioni, paragonabile alle lotte di potere descritte in ‘Game of Thrones’. Mentre l’attenzione globale è focalizzata sulle prestazioni e sui parametri dei modelli, una battaglia silenziosa si sta sviluppando attorno agli standard, ai protocolli e agli ecosistemi di AI e agenti.

Nel novembre 2024, Anthropic ha presentato il Model Context Protocol (MCP), uno standard aperto per gli agenti intelligenti, con l’obiettivo di unificare i protocolli di comunicazione tra i modelli linguistici di grandi dimensioni e le fonti di dati e gli strumenti esterni. Poco dopo, OpenAI ha annunciato il supporto di Agent SDK per MCP. Anche Demis Hassabis, CEO di Google DeepMind, ha confermato che il modello Gemini di Google e i kit di sviluppo software integrerebbero questo standard aperto, definendo MCP “in rapida ascesa come lo standard aperto per l’era degli agenti AI”.

Contemporaneamente, Google ha annunciato l’Agent2Agent Protocol (A2A) open-source alla conferenza Google Cloud Next 2025. Questo protocollo mira a superare le barriere tra i framework e i fornitori esistenti, consentendo una collaborazione sicura ed efficiente tra gli agenti in diversi ecosistemi.

Queste mosse dei giganti tecnologici hanno svelato una competizione trasversale nell’AI e negli agenti intelligenti in termini di standard di connessione, protocolli di interfaccia ed ecosistemi. Il principio “protocollo equivale a potere” è evidente. Man mano che il panorama globale dell’AI prende forma, chi controlla la definizione degli standard di protocollo di base nell’era dell’AI ha l’opportunità di rimodellare la struttura del potere e l’ordine di distribuzione del valore della catena industriale globale dell’AI.

La “Porta USB-C” del Futuro Ecosistema AI

Con il rapido avanzamento della tecnologia AI, i modelli linguistici di grandi dimensioni come GPT e Claude hanno dimostrato capacità impressionanti. Il vero valore di questi modelli risiede nella loro capacità di interagire con i dati e gli strumenti del mondo esterno per risolvere problemi reali.

Tuttavia, questa capacità di interazione ha a lungo dovuto affrontare problemi di frammentazione e mancanza di standardizzazione, il che richiede agli sviluppatori di implementare una logica di integrazione specifica per diversi modelli e piattaforme AI.

Per affrontare questo problema, è emerso MCP. Come ponte che collega i modelli AI con il mondo esterno, MCP risolve diversi problemi chiave riscontrati durante l’interazione AI.

Prima di MCP, se un modello AI avesse avuto bisogno di connettersi a un database locale (come SQLite) per ottenere dati o chiamare strumenti remoti (come Slack per la comunicazione del team, GitHub API per gestire il codice), gli sviluppatori avrebbero dovuto scrivere codice di connessione specifico per ogni origine dati o strumento. Questo processo non era solo ingombrante e soggetto a errori, ma anche costoso da sviluppare, difficile da mantenere e difficile da scalare a causa della mancanza di uno standard unificato.

Al momento del lancio di MCP, Anthropic ha fatto un’analogia: MCP è come la porta USB-C per le applicazioni AI. MCP mira a creare uno standard comune, consentendo a vari modelli e sistemi esterni di utilizzare lo stesso protocollo per l’accesso anziché scrivere ogni volta un set separato di soluzioni di integrazione. Ciò rende lo sviluppo e l’integrazione delle applicazioni AI più semplici e unificati.

Ad esempio, in un progetto di sviluppo software, uno strumento AI basato su MCP può esaminare direttamente il repository di codice del progetto, analizzare la struttura del codice, comprendere i record di commit storici e quindi fornire agli sviluppatori suggerimenti di codice più in linea con le effettive esigenze del progetto, migliorando significativamente l’efficienza dello sviluppo e la qualità del codice.

In passato, per consentire a grandi modelli e altre applicazioni AI di utilizzare i dati, di solito era necessario copiare e incollare o caricare e scaricare. Anche i modelli più potenti erano limitati dall’isolamento dei dati, formando silos di informazioni. Per creare modelli più potenti, ogni nuova origine dati doveva essere personalizzata e implementata, rendendo difficile la scalabilità di sistemi veramente interconnessi, con conseguenti molte limitazioni.

Fornendo un’interfaccia unificata, MCP collega direttamente AI e dati (inclusi dati locali e Internet). Attraverso il server MCP e il client MCP, purché entrambi seguano questo protocollo, “tutto può essere connesso”. Ciò consente alle applicazioni AI di accedere e utilizzare in modo sicuro i dati locali e remoti, fornendo alle applicazioni AI un’interfaccia per connettersi a tutto.

Da un punto di vista architettonico, MCP include principalmente due parti fondamentali: il server MCP e il client MCP. Gli sviluppatori possono esporre i propri dati tramite il server MCP, che può provenire da file system locali, database o servizi remoti come Slack e GitHub API. Le applicazioni AI create per connettersi a questi server sono chiamate client MCP. In poche parole, il server MCP è responsabile dell’esposizione dei dati e il client MCP è responsabile dell’accesso ai dati.

Quando i modelli AI accedono a dati e strumenti esterni, la sicurezza è una considerazione importante. Fornendo interfacce di accesso ai dati standardizzate, MCP riduce significativamente il numero di contatti diretti con dati sensibili, riducendo il rischio di perdita di dati.

MCP ha meccanismi di sicurezza integrati, che consentono alle origini dati di condividere i dati con l’AI in modo controllato all’interno di un framework sicuro. L’AI può anche re-immettere in modo sicuro i risultati dell’elaborazione nelle origini dati, garantendo che solo le richieste verificate possano accedere a risorse specifiche, equivalenti all’aggiunta di un altro livello di difesa alla sicurezza dei dati, dissipando le preoccupazioni aziendali sulla sicurezza dei dati e ponendo una solida base per la profonda applicazione dell’AI in scenari di livello aziendale.

Ad esempio, il server MCP controlla le proprie risorse e non ha bisogno di fornire informazioni sensibili come le chiavi API ai fornitori di tecnologia di grandi modelli. In questo modo, anche se il modello di grandi dimensioni viene attaccato, gli aggressori non saranno in grado di ottenere queste informazioni sensibili, isolando efficacemente i rischi.

Si può affermare che MCP è un prodotto naturale dello sviluppo della tecnologia AI e una pietra miliare importante. Non solo semplifica il processo di sviluppo delle applicazioni AI, ma crea anche le condizioni per la prosperità dell’ecosistema AI.

In quanto standard aperto, MCP stimola notevolmente la vitalità della comunità degli sviluppatori. Gli sviluppatori globali possono contribuire con codice e sviluppare nuovi connettori attorno a MCP, espandendo continuamente i suoi confini applicativi, formando un circolo ecologico virtuoso e promuovendo la profonda integrazione di AI e dati in vari settori. Questa apertura semplifica la connessione delle applicazioni AI a vari servizi e strumenti, formando un ricco ecosistema, a vantaggio in definitiva degli utenti e dell’intero settore.

I vantaggi di MCP non si riflettono solo a livello tecnico, ma, cosa più importante, nel valore effettivo che porta a diversi campi. Nell’era dell’AI, la capacità di acquisire ed elaborare informazioni determina tutto e MCP consente a più agenti di collaborare, massimizzando i punti di forza reciproci.

Ad esempio, in campo medico, gli agenti intelligenti possono connettersi alle cartelle cliniche elettroniche dei pazienti e ai database medici tramite MCP e, in combinazione con il giudizio professionale dei medici, possono fornire suggerimenti diagnostici iniziali più rapidamente. Nel settore finanziario, gli agenti intelligenti possono collaborare per analizzare i dati finanziari, monitorare i cambiamenti del mercato e persino condurre automaticamente negoziazioni azionarie. Questa divisione del lavoro e la cooperazione tra gli agenti intelligenti rende l’elaborazione dei dati più efficiente e il processo decisionale più accurato.

Rivedendo la storia dello sviluppo di MCP, non è difficile scoprire che il suo tasso di crescita è sorprendente. All’inizio del 2023, MCP ha completato la progettazione del protocollo di comunicazione di base, realizzando la registrazione di base degli agenti intelligenti e le funzioni di trasmissione dei messaggi. Questo è come creare un linguaggio universale per gli agenti intelligenti, consentendo loro di comunicare tra loro invece di parlare le proprie lingue.

Alla fine del 2023, MCP ha ulteriormente ampliato le sue funzioni, supportando gli agenti intelligenti per chiamare API esterne e la condivisione dei dati, il che equivale a consentire agli agenti intelligenti non solo di chattare, ma anche di scambiare informazioni ed elaborare congiuntamente le attività.

All’inizio del 2024, l’ecosistema MCP ha raggiunto un nuovo livello. Sono stati lanciati toolkit per sviluppatori e progetti di esempio e il numero di plug-in di agenti intelligenti forniti dalla comunità ha superato i 100, raggiungendo una situazione di “fioritura”.

Recentemente, Microsoft ha integrato MCP nel suo servizio Azure OpenAI e Google DeepMind ha anche annunciato che fornirà supporto per MCP e lo integrerà nel modello Gemini e nell’SDK. Non solo le grandi aziende tecnologiche, ma anche le startup AI e i fornitori di strumenti di sviluppo si sono uniti a MCP, come Block, Apollo, Zed, Replit, Codeium e Sourcegraph.

L’ascesa di MCP ha attirato un rapido follow-up e una competizione da parte delle società tecnologiche cinesi come Tencent e Alibaba, considerandola un passo importante nella strategia dell’ecosistema AI. Ad esempio, recentemente la piattaforma Bailian di Alibaba Cloud ha lanciato un servizio MCP a ciclo di vita completo, eliminando la necessità per gli utenti di gestire risorse, sviluppare e distribuire, e ingegnerizzare operazioni e manutenzione, riducendo il ciclo di sviluppo degli agenti intelligenti a minuti. Tencent Cloud ha rilasciato l’”AI Development Kit”, che supporta i servizi di hosting di plug-in MCP per aiutare gli sviluppatori a creare rapidamente agenti intelligenti orientati al business.

Il “Ponte Invisibile” per la Collaborazione Multi-Agente

Mentre il protocollo MCP trasforma gli agenti intelligenti da strumenti di chat in assistenti all’azione, i giganti tecnologici stanno iniziando a costruire “piccoli cortili e alti muri” di standard ed ecosistemi su questo nuovo campo di battaglia.

Rispetto a MCP, che si concentra sulla connessione dei modelli AI con strumenti e dati esterni, A2A fa un ulteriore passo avanti, concentrandosi sulla collaborazione efficiente tra agenti intelligenti.

L’intenzione originale del protocollo A2A è semplice: consentire agli agenti intelligenti provenienti da diverse fonti e produttori di comprendersi e collaborare tra loro, portando maggiore autonomia alla collaborazione di più agenti intelligenti.

Questo è come l’OMC che mira a ridurre le barriere tariffarie tra i paesi. Gli agenti intelligenti di diversi fornitori e framework sono come paesi indipendenti. Una volta adottato A2A, equivale ad aderire a una zona di libero scambio, dove possono comunicare in una lingua comune, collaborare senza problemi e completare congiuntamente flussi di lavoro complessi che un singolo agente intelligente non può completare in modo indipendente.

La forma di interoperabilità specifica del protocollo A2A si ottiene facilitando la comunicazione tra il Client Agent e il Remote Agent. L’agente client è responsabile della formulazione e della comunicazione delle attività e l’agente remoto agisce in base a tali attività per fornire le informazioni corrette o eseguire le operazioni corrispondenti.

In questo processo, il protocollo A2A ha le seguenti capacità chiave:

Innanzitutto, gli agenti intelligenti possono pubblicizzare le proprie capacità tramite “schede agente intelligente”. Queste “schede agente intelligente” esistono in formato JSON, consentendo agli agenti client di identificare quale agente remoto è più adatto per eseguire un’attività specifica.

Una volta identificato l’agente remoto appropriato, l’agente client può utilizzare il protocollo A2A per comunicare con esso e assegnargli l’attività.

La gestione delle attività è una parte importante del protocollo A2A. La comunicazione tra gli agenti client e remoti ruota attorno al completamento delle attività. Il protocollo definisce un oggetto “attività”. Per le attività semplici, può essere completato immediatamente; per le attività complesse e a lungo termine, gli agenti intelligenti possono comunicare tra loro per mantenere la sincronizzazione sullo stato di completamento dell’attività.

Inoltre, A2A supporta anche la collaborazione tra agenti intelligenti. Più agenti intelligenti possono inviarsi messaggi a vicenda, che possono contenere informazioni contestuali, risposte o istruzioni per l’utente. In questo modo, più agenti intelligenti possono lavorare insieme meglio per completare insieme attività complesse.

Nella progettazione di questo protocollo, Google ha seguito cinque principi chiave. Innanzitutto, A2A si concentra sull’abilitazione degli agenti intelligenti a collaborare nelle loro modalità naturali e non strutturate, anche se non condividono memoria, strumenti e contesto.

In secondo luogo, il protocollo è costruito su standard esistenti e diffusi, tra cui HTTP, Server-Sent Events (SSE) e JSON-RPC, il che significa che è più facile integrarsi con gli stack IT esistenti che le aziende già utilizzano quotidianamente.

Ad esempio, una società di e-commerce utilizza quotidianamente il protocollo HTTP per gestire la trasmissione di dati Web e JSON-RPC per trasmettere istruzioni di dati tra il front-end e il back-end. Dopo l’introduzione del protocollo A2A, il sistema di gestione degli ordini dell’azienda può ottenere rapidamente gli aggiornamenti dei dati logistici forniti dagli agenti intelligenti pertinenti tramite il docking del protocollo HTTP e A2A, senza dover ricostruire complessi canali di trasmissione dati, semplificando l’integrazione nell’architettura IT esistente e rendendo più fluida la collaborazione di vari sistemi.

In terzo luogo, A2A è progettato per supportare l’autenticazione e l’autorizzazione a livello aziendale. L’utilizzo del protocollo A2A può autenticare rapidamente e ottenere in modo sicuro i dati, garantendo la sicurezza e la conformità della trasmissione dei dati e prevenendo i rischi di perdita di dati.

In quarto luogo, A2A è abbastanza flessibile da supportare vari scenari, dalle attività rapide alla ricerca approfondita che può richiedere ore o addirittura giorni (quando sono coinvolti esseri umani). Durante tutto il processo, A2A può fornire agli utenti feedback in tempo reale, notifiche e aggiornamenti di stato.

Prendiamo come esempio un istituto di ricerca. I ricercatori utilizzano agenti intelligenti sotto il protocollo A2A per condurre ricerche relative allo sviluppo di nuovi farmaci. Le attività semplici, come il recupero rapido delle informazioni sulla struttura delle molecole di farmaci esistenti nel database, possono essere completate e restituite ai ricercatori in pochi secondi. Tuttavia, per attività complesse, come la simulazione della reazione di nuove molecole di farmaci nell’ambiente del corpo umano, potrebbero essere necessari diversi giorni.

Durante questo periodo, il protocollo A2A invierà continuamente ai ricercatori i progressi della simulazione, ad esempio quanti passaggi sono stati completati, i problemi attuali riscontrati, ecc., consentendo ai ricercatori di essere sempre aggiornati sulla situazione, proprio come avere un assistente che riporta costantemente i progressi del lavoro.

In quinto luogo, il mondo degli agenti intelligenti non si limita al testo, quindi A2A supporta varie modalità, inclusi audio, immagini e flussi video.

Immagina che in futuro il tuo assistente intelligente, il sistema CRM dell’azienda, l’AI di gestione della catena di approvvigionamento e persino gli agenti intelligenti su diverse piattaforme cloud possano “chattare di attività e dividere il lavoro” come vecchi amici, completando in modo efficiente varie esigenze, dalle semplici query ai processi complessi, aprendo così l’era dell’intelligenza artificiale.

Attualmente, il protocollo supporta già piattaforme applicative per più di 50 aziende tecnologiche tradizionali, tra cui Atlassian, Box, Cohere, Intuit, MongoDB, PayPal, Salesforce e SAP.

Vale la pena notare che queste sono tutte aziende che hanno relazioni sottili con l’ecosistema Google. Ad esempio, Cohere, una startup AI indipendente, è stata fondata nel 2019 da tre ricercatori che in precedenza lavoravano presso Google Brain; hanno una partnership tecnica a lungo termine con Google Cloud e Google Cloud fornisce a Cohere la potenza di calcolo necessaria per addestrare i modelli.

Atlassian, una società che fornisce strumenti di collaborazione per il team, come Jira e Confluence, è utilizzata da molte persone. Hanno una partnership con Google e alcune applicazioni possono essere utilizzate nei prodotti Google.

Sebbene Google abbia affermato che A2A è un complemento al protocollo di contesto del modello MCP proposto da Anthropic, questo è un po’ come Google che si fa promotore dello sviluppo del sistema Android con più di 80 aziende in passato. Man mano che sempre più aziende si uniscono, il valore commerciale di A2A migliorerà notevolmente e promuoverà il rapido sviluppo dell’intero ecosistema di agenti intelligenti.

Dal “Collegamento degli Strumenti” alla “Dominazione degli Ecosistemi”

MCP e A2A rappresentano due percorsi diversi per l’interconnessione AI. MCP, in quanto protocollo di interazione del modello sottostante, garantisce un docking senza interruzioni tra le applicazioni e diversi modelli; A2A fornisce un framework di collaborazione tra agenti intelligenti su questa base, sottolineando la scoperta autonoma e la collaborazione flessibile tra agenti intelligenti. Questa struttura a livelli può soddisfare contemporaneamente le esigenze della standardizzazione del modello e della collaborazione di agenti intelligenti.

Allo stesso tempo, entrambi hanno raggiunto posizioni dominanti nei rispettivi sotto-campi. MCP ha vantaggi nelle applicazioni a livello aziendale, nei servizi cross-model e negli scenari di standardizzazione; A2A ha ottenuto maggiore supporto nelle comunità open source, nei progetti di ricerca e nelle applicazioni innovative.

Da una prospettiva macro, l’ascesa di MCP e A2A non è solo correlata ai futuri standard tecnologici AI, ma preannuncia anche un importante cambiamento nel panorama del settore AI. Stiamo assistendo a una svolta storica nell’AI da “intelligenza autonoma” a “reti collaborative”. Come dimostra la storia dello sviluppo di Internet, la creazione di protocolli aperti e standardizzati diventerà una forza chiave nella promozione dello sviluppo del settore.

Ma da un livello più profondo, MCP e A2A nascondono enormi interessi commerciali e la competizione per il futuro potere del discorso tecnologico AI.

In termini di modelli di business, i due stanno aprendo diversi percorsi di profitto. Anthropic prevede di lanciare un servizio di versione enterprise basato su MCP, addebitando alle aziende in base al volume di chiamate API. Le aziende utilizzano MCP per integrare profondamente i dati interni con l’AI, migliorare l’efficienza aziendale e devono pagare per questo comodo servizio.

Google sta utilizzando il protocollo A2A per promuovere gli abbonamenti ai servizi cloud. Quando le aziende utilizzano A2A per costruire reti di collaborazione di agenti intelligenti, sono guidate a utilizzare la potente potenza di calcolo di Google Cloud e i relativi servizi, aumentando così le entrate commerciali di Google Cloud.

In termini di monopolio dei dati, la padronanza degli standard di protocollo significa controllare il flusso di dati AI. Attraverso il protocollo A2A, Google raccoglie enormi quantità di dati durante la collaborazione di molti agenti intelligenti aziendali. Questi dati si riversano nei suoi algoritmi pubblicitari di base, consolidando ulteriormente il suo dominio nel mercato pubblicitario. Anthropic vuole utilizzare MCP per consentire all’AI di penetrare nel cuore dei dati aziendali. Se forma un vantaggio di scala, accumulerà anche una grande quantità di dati di settore, fornendo supporto dati per l’espansione del business e lo sviluppo di prodotti AI più in linea con le esigenze aziendali.

In termini di strategia open source, sebbene entrambi affermino di essere open source, hanno i propri piani. Il protocollo core MCP è open source, attirando gli sviluppatori a partecipare alla costruzione dell’ecosistema, ma le funzioni chiave a livello aziendale (come le funzioni avanzate di connessione remota e l’elaborazione approfondita dei dati multi-modali) devono essere sbloccate a pagamento, bilanciando gli interessi open source e commerciali. Mentre il protocollo A2A è open source, guida più di 50 partner aziendali a dare priorità all’utilizzo dei servizi Google Cloud, legando strettamente l’ecosistema open source con il proprio sistema commerciale e migliorando la fidelizzazione degli utenti e la competitività della piattaforma.

La tecnologia stessa non ha né bene né male, ma quando è incorporata nella catena di interessi, diventa un vettore di potere e controllo. Ogni rivoluzione tecnologica sta rimodellando la catena di interessi del mondo. La rivoluzione industriale ha spostato la catena di interessi dalla terra e dal lavoro al capitale e alle macchine, mentre la rivoluzione digitale l’ha spinta ai dati e agli algoritmi.

Gli strumenti open source possono certamente esplorare percorsi innovativi, ma non aspettarti di utilizzare i tasti dei dati e degli algoritmi per aprire tutte le porte, perché ogni stringa di tasti è incisa con la password di interesse della piattaforma.

Mentre le aziende tecnologiche sembrano aprire l’ecosistema AI, in realtà stanno costruendo muri ecologici alti e spessi attorno a scenari applicativi che sono più favorevoli a se stessi, impedendo che le miniere d’oro dei dati vengano saccheggiate, dopo tutto, la competitività ultima nell’era AI è ancora i dati.

Se MCP e A2A alla fine possano fondersi è ancora incerto. Se ciascuno agisce in modo indipendente, i giganti tecnologici hanno molte probabilità di costruire “piccoli muri da cortile AI”. Di conseguenza, il fenomeno dell’isola di dati diventerà più grave, la circolazione dei dati tra le aziende in diversi campi di protocollo sarà bloccata, limitando l’ambito delle applicazioni di innovazione AI; gli sviluppatori dovranno padroneggiare più competenze di sviluppo del protocollo, aumentando i costi di apprendimento e il carico di lavoro di sviluppo, sopprimendo la vitalità dell’innovazione; la direzione dell’innovazione del settore sarà facilmente guidata da protocolli giganti e le start-up saranno in svantaggio nella concorrenza a causa della difficoltà nel supportare più protocolli, ostacolando il ritmo di innovazione complessivo del settore.

Speriamo che l’ascesa di MCP e A2A promuova l’evoluzione del settore AI globale nella direzione della collaborazione piuttosto che dello scontro.

Proprio come la disputa sullo scartamento ferroviario nel 19° secolo e la guerra degli standard di comunicazione mobile nel 20° secolo, ogni divisione tecnologica è accompagnata da enormi costi sociali. Le conseguenze della controversia sugli standard e sui protocolli AI potrebbero essere più ampie. Determinerà se ci stiamo muovendo verso una federazione di stelle “Internet of Everything” o se stiamo cadendo in una foresta oscura dove prevale la “catena del sospetto”.