AI e Virologia: Rischi Biologici?

La Spada a Doppio Taglio dell’AI in Virologia

Un rivoluzionario studio rivela che modelli avanzati di intelligenza artificiale (AI), compresi quelli che alimentano piattaforme come ChatGPT e Claude, stanno ora dimostrando capacità di problem solving nei laboratori di virologia umidi che superano quelle di virologi esperti in possesso di dottorati di ricerca. Questa rivelazione, pur offrendo un immenso potenziale per far progredire la prevenzione delle malattie, solleva anche significative preoccupazioni sul potenziale uso improprio dell’AI per creare armi biologiche mortali, in particolare da parte di individui privi delle necessarie competenze e considerazioni etiche.

Lo studio, che è stato condiviso in esclusiva con TIME, è stato uno sforzo collaborativo che ha coinvolto ricercatori del Center for AI Safety, del Media Lab del MIT, dell’UFABC (un’università brasiliana) e SecureBio, un’organizzazione non-profit dedicata alla prevenzione delle pandemie. Il team di ricerca ha consultato virologi leader per progettare un test pratico altamente impegnativo che valutasse la capacità dei modelli AI di risolvere efficacemente problemi complessi di procedure e protocolli di laboratorio comunemente impiegati nella ricerca virologica.

I risultati del test sono stati sorprendenti. I virologi a livello di dottorato, nonostante la loro vasta formazione ed esperienza, hanno ottenuto un punteggio di accuratezza medio di solo il 22,1% nelle loro aree di competenza dichiarate. In netto contrasto, il modello o3 di OpenAI ha raggiunto un’impressionante accuratezza del 43,8%, mentre Gemini 2.5 Pro di Google ha ottenuto un punteggio del 37,6%. Questi risultati suggeriscono che i modelli AI stanno rapidamente acquisendo le conoscenze e le competenze necessarie per svolgere compiti complessi nei laboratori di virologia, potenzialmente superando le capacità degli esperti umani in determinate aree.

Preoccupazioni Sulla Creazione di Armi Biologiche

Seth Donoughe, uno scienziato ricercatore presso SecureBio e coautore dello studio, ha espresso la sua preoccupazione per le implicazioni di questi risultati. Ha osservato che, per la prima volta nella storia, praticamente chiunque abbia accesso a questi modelli AI potrebbe avere a sua disposizione un esperto di virologia AI non giudicante, potenzialmente guidandolo attraverso i complessi processi di laboratorio necessari per creare armi biologiche.

Donoughe ha sottolineato che nel corso della storia sono stati fatti numerosi tentativi per sviluppare armi biologiche, ma molti di questi tentativi sono falliti a causa della mancanza di accesso alle competenze necessarie. Ha avvertito che la diffusa disponibilità di modelli AI in grado di fornire queste competenze solleva serie preoccupazioni sul potenziale uso improprio e sulla necessità di cautela nel modo in cui queste capacità vengono distribuite.

  • Il rischio di uso improprio da parte di non esperti.
  • Il potenziale per la creazione di armi biologiche mortali.
  • La necessità di cautela nella distribuzione delle competenze virologiche AI.

I Laboratori di AI Rispondono alle Preoccupazioni

In risposta ai risultati dello studio, gli autori hanno condiviso i risultati con i principali laboratori di AI, spingendone alcuni ad agire. xAI, ad esempio, ha pubblicato un framework di gestione del rischio che delinea la sua intenzione di implementare misure di salvaguardia virologiche nelle future versioni del suo modello AI Grok. OpenAI ha informato TIME di aver “implementato nuove mitigazioni a livello di sistema per i rischi biologici” per i suoi nuovi modelli rilasciati la scorsa settimana. Anthropic ha incluso i risultati delle prestazioni del modello sul documento nelle recenti schede di sistema, ma non ha proposto misure di mitigazione specifiche. Gemini di Google ha rifiutato di commentare TIME.

Queste risposte indicano una crescente consapevolezza tra gli sviluppatori di AI dei potenziali rischi associati alle crescenti capacità dell’AI in virologia e della necessità di implementare misure di salvaguardia per prevenire l’uso improprio.

La Promessa dell’AI Nella Lotta Contro le Malattie

Nonostante le preoccupazioni sulla creazione di armi biologiche, l’AI offre anche un immenso potenziale per far progredire la ricerca virologica e combattere le malattie infettive. I leader dell’AI hanno a lungo riconosciuto il potenziale dell’AI per rivoluzionare la biomedicina e accelerare lo sviluppo di nuovi trattamenti e cure.

L’amministratore delegato di OpenAI, Sam Altman, ad esempio, ha dichiarato alla Casa Bianca a gennaio che “man mano che questa tecnologia progredisce, vedremo le malattie guarire a un ritmo senza precedenti”. Questo ottimismo è supportato da segnali incoraggianti di progresso in questo settore. All’inizio di quest’anno, i ricercatori dell’Emerging Pathogens Institute dell’Università della Florida hanno sviluppato un algoritmo in grado di prevedere quale variante di coronavirus potrebbe diffondersi più velocemente.

Valutare la Capacità dell’AI di Condurre Lavori di Laboratorio di Virologia

Mentre l’AI ha mostrato promesse nel fornire informazioni in stile accademico relative alla virologia, un importante divario è rimasto nella comprensione della sua capacità di condurre effettivamente lavori di laboratorio di virologia. Per colmare questo divario, Donoughe e i suoi colleghi hanno progettato un test specifico per domande difficili, non ricercabili su Google, che richiedono assistenza pratica e l’interpretazione di immagini e informazioni non tipicamente presenti in articoli accademici.

Le domande sono state progettate per imitare le sfide affrontate dai virologi nel loro lavoro quotidiano, come la risoluzione dei problemi incontrati durante la coltura di virus in specifici tipi e condizioni di cellule.

Il formato è stato progettato come tale:

  • Presentare uno scenario specifico.
  • Fornire dettagli sull’impostazione dell’esperimento.
  • Chiedere all’AI di identificare il problema più probabile.

L’AI Supera i Virologi nei Test Pratici

I risultati del test hanno rivelato che praticamente ogni modello AI ha superato i virologi a livello di dottorato, anche all’interno delle proprie aree di competenza. Questa scoperta suggerisce che i modelli AI non sono solo in grado di accedere ed elaborare vaste quantità di conoscenza virologica, ma anche di applicare questa conoscenza per risolvere problemi pratici in laboratorio.

I ricercatori hanno anche osservato che i modelli hanno mostrato un miglioramento significativo nel tempo, indicando che stanno continuamente imparando e affinando le proprie competenze in virologia. Ad esempio, Claude 3.5 Sonnet di Anthropic è passato dal 26,9% al 33,6% di accuratezza dal suo modello di giugno 2024 al suo modello di ottobre 2024. E un’anteprima di GPT 4.5 di OpenAI a febbraio ha superato GPT-4o di quasi 10 punti percentuali.

Le Implicazioni delle Crescenti Capacità dell’AI

Dan Hendrycks, il direttore del Center for AI Safety, ha sottolineato che i modelli AI stanno ora acquisendo una quantità preoccupante di conoscenza pratica. Se i modelli AI sono effettivamente così capaci in ambienti di laboratorio umidi come suggerisce lo studio, le implicazioni sono di vasta portata.

Da un lato, l’AI potrebbe fornire un’assistenza inestimabile ai virologi esperti nel loro lavoro critico di lotta contro i virus, accelerando i tempi della medicina e dello sviluppo di vaccini e migliorando gli studi clinici e il rilevamento delle malattie. Tom Inglesby, il direttore del Johns Hopkins Center for Health Security, ha osservato che l’AI potrebbe consentire agli scienziati in diverse parti del mondo, in particolare a quelli che mancano di competenze o risorse specialistiche, di condurre un prezioso lavoro quotidiano sulle malattie che si verificano nei loro paesi.

  • Accelerare lo sviluppo di farmaci e vaccini.
  • Migliorare gli studi clinici e il rilevamento delle malattie.
  • Dare potere agli scienziati in contesti con risorse limitate.

Il Rischio di Uso Improprio da Parte di Attori in Malafede

D’altra parte, lo studio solleva serie preoccupazioni sul potenziale uso improprio dell’AI da parte di attori in malafede che potrebbero utilizzare questi modelli per imparare a creare virus senza la necessità della tipica formazione e dell’accesso richiesto per entrare in un laboratorio di Biosicurezza di Livello 4 (BSL-4), che gestisce gli agenti infettivi più pericolosi ed esotici. Inglesby ha avvertito che l’AI potrebbe consentire a più persone con meno formazione di gestire e manipolare virus, portando potenzialmente a conseguenze catastrofiche.

Hendrycks ha esortato le aziende di AI a implementare misure di protezione per prevenire questo tipo di utilizzo, suggerendo che non farlo entro sei mesi sarebbe imprudente. Ha proposto che una soluzione sia quella di rendere questi modelli “gated”, in modo che solo terze parti fidate con ragioni legittime per manipolare virus mortali, come i ricercatori del dipartimento di biologia del MIT, abbiano accesso alle loro versioni non filtrate.

  • Prevenire l’uso improprio implementando misure di protezione.
  • “Gating” dei modelli per limitare l’accesso a parti fidate.
  • Garantire che solo i ricercatori autorizzati abbiano accesso a capacità sensibili.

La Fattibilità dell’Autoregolamentazione del Settore

Hendrycks ritiene che sia tecnologicamente fattibile per le aziende di AI autoregolamentarsi e implementare questi tipi di salvaguardie. Tuttavia, ha espresso preoccupazione sul fatto che alcune aziende si trascineranno i piedi o semplicemente non prenderanno le misure necessarie.

xAI, il laboratorio di AI di Elon Musk, ha riconosciuto il documento e ha segnalato che la società “potenzialmente utilizzerà” determinate salvaguardie attorno alle risposte alle domande di virologia, tra cui la formazione di Grok per rifiutare richieste dannose e l’applicazione di filtri di input e output.

OpenAI ha affermato che i suoi modelli più recenti, o3 e o4-mini, sono stati implementati con una serie di salvaguardie relative al rischio biologico, tra cui il blocco degli output dannosi. La società ha anche riferito di aver condotto una campagna di “red-teaming” di mille ore in cui il 98,7% delle conversazioni non sicure relative alla bio è stato contrassegnato e bloccato con successo.

  • Formare i modelli AI a rifiutare richieste dannose.
  • Applicare filtri di input e output per bloccare contenuti pericolosi.
  • Condurre esercizi di “red-teaming” per identificare e mitigare i rischi.

La Necessità di Politiche e Regolamentazione

Nonostante questi sforzi, Inglesby sostiene che l’autoregolamentazione del settore non è sufficiente e chiede ai legislatori e ai leader politici di sviluppare un approccio politico per regolamentare i rischi biologici dell’AI. Ha sottolineato che mentre alcune aziende stanno investendo tempo e denaro per affrontare questi rischi, altre potrebbero non farlo, creando una situazione in cui il pubblico non ha alcuna visione di ciò che sta accadendo.

Inglesby ha proposto che prima del rilascio di una nuova versione di un LLM, dovrebbe essere valutata per garantire che non produca risultati a livello di pandemia. Ciò richiederebbe un approccio più completo e coordinato per regolamentare le capacità dell’AI in virologia, coinvolgendo sia l’industria che le parti interessate del governo.

  • Valutare gli LLM prima del rilascio per prevenire risultati a livello di pandemia.
  • Sviluppare un approccio politico completo per regolamentare i rischi biologici dell’AI.
  • Coinvolgere sia l’industria che le parti interessate del governo nel processo normativo.

Trovare un Equilibrio tra Innovazione e Sicurezza

La sfida consiste nel trovare un equilibrio tra la promozione dell’innovazione nell’AI e la garanzia che queste potenti tecnologie non vengano utilizzate in modo improprio per creare armi biologiche mortali. Ciò richiede un approccio sfaccettato che includa:

  • Sviluppare solide misure di salvaguardia per prevenire l’uso improprio.
  • Limitare l’accesso a capacità sensibili a parti fidate.
  • Regolamentare le capacità dell’AI in virologia.
  • Promuovere l’innovazione responsabile e le considerazioni etiche.

Adottando questi passaggi, possiamo sfruttare l’immenso potenziale dell’AI per far progredire la ricerca virologica e combattere le malattie infettive mitigando al contempo i rischi associati al suo uso improprio. Il futuro dell’AI in virologia dipende dalla nostra capacità di navigare in questo complesso panorama in modo responsabile e garantire che queste potenti tecnologie siano utilizzate a beneficio dell’umanità.