Gemini 2.5 Pro di Google Sotto Esame per la Mancanza del Rapporto di Sicurezza
Il recente rilascio del modello di intelligenza artificiale Gemini 2.5 Pro di Google ha suscitato polemiche a causa dell’assenza di un rapporto di sicurezza cruciale. Questa omissione sembra contraddire le promesse fatte da Google al governo degli Stati Uniti e ai vertici internazionali, sollevando preoccupazioni sull’impegno dell’azienda nei confronti della trasparenza e dello sviluppo responsabile dell’IA. Gli esperti si chiedono ora se Google e altri importanti laboratori di IA stiano facendo marcia indietro rispetto ai loro impegni di informare il pubblico sulle capacità e sui potenziali rischi associati ai loro modelli di IA.
Promesse Non Mantenute e Impegni Inadempiuti
Il mancato rilascio da parte di Google di un rapporto di ricerca sulla sicurezza insieme a Gemini 2.5 Pro è visto come una violazione degli impegni presi in precedenza. Nel luglio 2023, Google ha partecipato a un incontro alla Casa Bianca convocato dall’amministrazione Biden, dove si è unita ad altre importanti aziende di IA nella firma di una serie di impegni. Un impegno chiave era la pubblicazione di rapporti per tutti i principali rilasci di modelli pubblici che superavano l’attuale stato dell’arte dell’IA dell’epoca. Dati i suoi progressi, Gemini 2.5 Pro rientrerebbe quasi certamente nell’ambito di questi Impegni della Casa Bianca.
All’epoca, Google ha concordato che questi rapporti avrebbero dovuto includere:
- Valutazioni di sicurezza condotte, comprese le valutazioni delle capacità pericolose.
- Significative limitazioni di prestazioni che potrebbero influire sui casi d’uso appropriati.
- Discussioni sugli effetti del modello sui rischi sociali come l’equità e la distorsione.
- Risultati di test avversari per valutare l’idoneità del modello per l’implementazione.
A seguito della riunione del G7 a Hiroshima, in Giappone, nell’ottobre 2023, Google e altre società si sono impegnate ad aderire a un codice di condotta volontario per lo sviluppo di IA avanzata. Questo codice del G7 ha sottolineato l’importanza di segnalare pubblicamente le capacità, i limiti e le applicazioni adatte e inadatte dei sistemi di IA avanzata. L’obiettivo era quello di migliorare la trasparenza e la responsabilità nel campo dell’IA.
Nel maggio 2024, in occasione di un vertice internazionale sulla sicurezza dell’IA tenutosi a Seul, in Corea del Sud, Google ha ribadito i suoi impegni. L’azienda ha promesso di divulgare pubblicamente le capacità dei modelli, i limiti, i casi d’uso appropriati e inappropriati e di fornire trasparenza sulle sue valutazioni dei rischi e sui risultati.
La Risposta di Google e la Trasparenza Ritardata
In risposta alle domande sul rapporto di sicurezza mancante, un portavoce di Google DeepMind, la divisione responsabile dello sviluppo dei modelli Gemini, ha dichiarato che l’ultimo Gemini era stato sottoposto a test pre-rilascio. Ciò includeva valutazioni interne di sviluppo e valutazioni di garanzia condotte prima del rilascio del modello. Il portavoce ha anche indicato che un rapporto con ulteriori informazioni sulla sicurezza e schede modello era ‘imminente’. Tuttavia, nonostante la dichiarazione iniziale sia stata rilasciata il 2 aprile, ad oggi non è stata pubblicata alcuna scheda modello.
Una Tendenza Più Ampia di Trascurare la Segnalazione della Sicurezza
Google non è sola ad affrontare le critiche per il suo impegno per la sicurezza dell’IA. All’inizio dell’anno, anche OpenAI ha dovuto affrontare un esame approfondito per non aver rilasciato una scheda modello tempestiva per il suo modello Deep Research. Invece, hanno pubblicato una scheda di sistema settimane dopo il rilascio iniziale del progetto. Allo stesso modo, il recente rapporto sulla sicurezza di Meta per Llama 4 è stato criticato per essere troppo breve e privo di dettagli.
Questi esempi evidenziano una tendenza preoccupante all’interno del settore dell’IA, in cui alcuni importanti laboratori non danno la priorità alla segnalazione della sicurezza in linea con le loro versioni di modelli. Ciò è particolarmente preoccupante dati gli impegni volontari che queste società hanno preso con il governo degli Stati Uniti e la comunità globale per produrre tali rapporti. Questi impegni sono stati inizialmente presi con l’amministrazione Biden nel 2023 e successivamente rafforzati attraverso impegni a rispettare il codice di condotta sull’IA adottato dalle nazioni del G7 al loro vertice sull’IA a Hiroshima.
Kevin Bankston, un consulente sulla governance dell’IA presso il Center for Democracy and Technology, ha espresso la sua delusione, affermando che questi fallimenti minano la credibilità delle aziende coinvolte e sollevano interrogativi sul loro impegno per lo sviluppo responsabile dell’IA.
Domande Senza Risposta e Valutazione Esterna
La dichiarazione del portavoce di Google non ha inoltre affrontato domande specifiche sul fatto che Gemini 2.5 Pro fosse stato sottoposto a valutazione esterna da parte dell’AI Security Institute del Regno Unito o dell’AI Safety Institute degli Stati Uniti. In precedenza, Google aveva fornito le generazioni precedenti dei suoi modelli Gemini all’AI Safety Institute del Regno Unito per la valutazione.
Al Seoul Safety Summit, Google ha aderito ai ‘Frontier AI Safety Commitments’, che includevano un impegno a fornire trasparenza pubblica sull’implementazione delle valutazioni di sicurezza. Le uniche eccezioni erano i casi in cui ciò avrebbe aumentato il rischio o divulgato informazioni commerciali sensibili in misura sproporzionata rispetto al beneficio sociale. L’impegno affermava inoltre che informazioni più dettagliate che non potevano essere condivise pubblicamente avrebbero dovuto comunque essere condivise con i governi dei paesi in cui le società hanno sede, che sarebbero gli Stati Uniti nel caso di Google.
Le società si sono inoltre impegnate a spiegare come gli attori esterni, come governi, società civile, accademici e pubblico, sono coinvolti nel processo di valutazione dei rischi dei loro modelli di IA. Il mancato rispetto da parte di Google delle domande dirette sul fatto che abbia o meno sottoposto Gemini 2.5 Pro ai valutatori del governo statunitense o britannico viola potenzialmente anche questo impegno.
Dare Priorità all’Implementazione Piuttosto che alla Trasparenza
L’assenza di un rapporto sulla sicurezza ha sollevato preoccupazioni sul fatto che Google possa dare la priorità alla rapida implementazione rispetto alla trasparenza e alle accurate valutazioni di sicurezza. Sandra Wachter, professoressa e ricercatrice senior presso l’Oxford Internet Institute, ha sottolineato l’importanza della trasparenza nella ricerca e nell’innovazione responsabile. Ha fatto un’analogia con altri settori, affermando che ‘Se questa fosse un’auto o un aereo, non diremmo: portiamo questo sul mercato il più rapidamente possibile e esamineremo gli aspetti di sicurezza in seguito’. Wachter ha espresso preoccupazione per il fatto che nel campo dell’IA generativa prevalga un atteggiamento di ‘metterlo là fuori e preoccuparsi, indagare e risolvere i problemi in seguito’.
Cambiamenti Politici e Pressioni Competitive
I recenti cambiamenti politici, uniti all’intensificarsi della rivalità tra le grandi aziende tecnologiche, potrebbero contribuire a un allontanamento dai precedenti impegni per la sicurezza, mentre le aziende corrono per implementare modelli di IA. Wachter ha osservato che ‘Il punto di pressione per queste aziende di essere più veloci, più rapide, le prime, le migliori, le dominanti, è più diffuso di quanto non fosse prima’, aggiungendo che gli standard di sicurezza stavano diminuendo in tutto il settore.
Questi standard in calo potrebbero essere guidati da una crescente preoccupazione tra i paesi tecnologici e alcuni governi che le procedure di sicurezza dell’IA stiano ostacolando l’innovazione. Negli Stati Uniti, l’amministrazione Trump ha indicato la sua intenzione di adottare un approccio meno rigoroso alla regolamentazione dell’IA rispetto all’amministrazione Biden. La nuova amministrazione ha già rescisso un ordine esecutivo dell’era Biden sull’IA e ha coltivato relazioni più strette con i leader tecnologici. Al recente vertice sull’IA a Parigi, il vicepresidente degli Stati Uniti JD Vance ha affermato che le ‘politiche di IA a favore della crescita’ dovrebbero essere prioritarie rispetto alla sicurezza e che l’IA era ‘un’opportunità che l’amministrazione Trump non sprecherà’.
Allo stesso vertice, sia il Regno Unito che gli Stati Uniti hanno rifiutato di firmare un accordo internazionale sull’intelligenza artificiale che promuovesse un approccio ‘aperto’, ‘inclusivo’ ed ‘etico’ allo sviluppo della tecnologia.
La Necessità di Chiari Requisiti di Trasparenza
Bankston ha sottolineato che ‘Se non possiamo contare su queste aziende per adempiere anche ai loro impegni più elementari in materia di sicurezza e trasparenza al momento del rilascio di nuovi modelli - impegni che esse stesse hanno assunto volontariamente - allora stanno chiaramente rilasciando i modelli troppo rapidamente nella loro corsa competitiva per dominare il settore’. Ha aggiunto che, poiché gli sviluppatori di IA continuano a vacillare in questi impegni, spetterà ai legislatori sviluppare e applicare chiari requisiti di trasparenza che le aziende non possono eludere.
Le Implicazioni Più Ampie per la Governance dell’IA
La controversia che circonda Gemini 2.5 Pro di Google e il rapporto sulla sicurezza mancante sottolinea la necessità fondamentale di solidi quadri di governance dell’IA. Questi quadri dovrebbero affrontare questioni chiave come:
- Trasparenza: Garantire che gli sviluppatori di IA siano trasparenti sulle capacità, i limiti e i potenziali rischi dei loro modelli.
- Responsabilità: Stabilire chiare linee di responsabilità per lo sviluppo e l’implementazione dei sistemi di IA.
- Sicurezza: Implementare rigorose procedure di test e valutazione della sicurezza per ridurre al minimo il rischio di danni.
- Considerazioni etiche: Integrare principi etici nella progettazione e nello sviluppo di sistemi di IA.
- Coinvolgimento del pubblico: Coinvolgere il pubblico per promuovere una più ampia comprensione dell’IA e delle sue implicazioni.
- Cooperazione internazionale: Collaborare a livello internazionale per sviluppare standard comuni e migliori pratiche per la governance dell’IA.
La mancanza di trasparenza che circonda Gemini 2.5 Pro evidenzia le potenziali conseguenze della negligenza di questi aspetti cruciali della governance dell’IA. Senza un’adeguata trasparenza e responsabilità, diventa difficile valutare il vero impatto dei sistemi di IA e garantire che siano sviluppati e implementati in modo responsabile ed etico.
Andare Avanti: Un Appello a una Maggiore Responsabilità
L’industria dell’IA si trova a un punto critico. Man mano che le tecnologie di IA diventano sempre più potenti e pervasive, è essenziale che gli sviluppatori diano la priorità alla sicurezza, alla trasparenza e alle considerazioni etiche. La controversia che circonda Gemini 2.5 Pro serve a ricordare che gli impegni volontari non sono sempre sufficienti. I governi e gli organismi di regolamentazione devono svolgere un ruolo più attivo nello stabilire standard chiari e nell’imporre la conformità.
Inoltre, è fondamentale che gli sviluppatori di IA si impegnino con il pubblico e promuovano una più ampia comprensione dell’IA e delle sue implicazioni. Ciò include essere trasparenti sui limiti e sui potenziali rischi dei sistemi di IA, nonché sulle misure adottate per mitigare tali rischi. Lavorando insieme, l’industria dell’IA, i governi e il pubblico possono garantire che le tecnologie di IA siano sviluppate e implementate in un modo che avvantaggi la società nel suo insieme.