AI e NHS: Privacy a Rischio?

Lo sviluppo di Foresight, un modello di intelligenza artificiale (AI), ha suscitato un notevole dibattito a causa del suo affidamento su un vasto set di dati di 57 milioni di cartelle cliniche del National Health Service (NHS) in Inghilterra. Mentre i sostenitori ne promuovono il potenziale per rivoluzionare l’assistenza sanitaria attraverso la previsione delle malattie e la previsione dei ricoveri ospedalieri, i critici esprimono serie preoccupazioni sulla privacy dei pazienti e sulla protezione dei dati. Questo articolo approfondisce le complessità di Foresight, esaminandone le capacità, i dilemmi etici che presenta e le salvaguardie in atto per mitigare i potenziali rischi.

Foresight: Un Modello di AI Generativa su Scala Nazionale

Foresight, concepito nel 2023, ha inizialmente utilizzato GPT-3 di OpenAI, la tecnologia alla base della prima iterazione di ChatGPT, ed è stato addestrato su 1,5 milioni di cartelle di pazienti provenienti da due ospedali di Londra. Chris Tomlinson dell’University College London e il suo team hanno da allora ampliato Foresight, definendolo il primo “modello di AI generativa su scala nazionale di dati sanitari” al mondo. Questa versione migliorata sfrutta Llama 2, l’LLM open source di Meta, e incorpora otto diversi set di dati accumulati regolarmente dall’NHS in Inghilterra da novembre 2018 a dicembre 2023. Questi set di dati comprendono appuntamenti ambulatoriali, ricoveri ospedalieri, registrazioni di vaccinazioni e altri eventi correlati alla salute, per un totale di 10 miliardi di punti dati su 57 milioni di individui, essenzialmente l’intera popolazione dell’Inghilterra.

Nonostante la mancanza di metriche di performance disponibili pubblicamente a causa dei test in corso, Tomlinson afferma che Foresight potrebbe alla fine facilitare le diagnosi individuali e prevedere tendenze sanitarie più ampie, come ricoveri ospedalieri o attacchi di cuore. Ha sottolineato il potenziale del modello per prevedere preventivamente le complicanze della malattia, consentendo un intervento precoce e un passaggio verso un’assistenza sanitaria preventiva su vasta scala durante una conferenza stampa il 6 maggio.

Preoccupazioni sulla Privacy e la Protezione dei Dati

La prospettiva di alimentare un modello di AI con dati medici così estesi ha scatenato preoccupazioni sulla privacy. Sebbene i ricercatori affermino che tutte le cartelle sono state “de-identificate” prima di addestrare l’AI, il rischio di re-identificazione attraverso l’analisi dei modelli di dati rimane una preoccupazione significativa, specialmente con set di dati di grandi dimensioni.

Luc Rocher dell’Università di Oxford evidenzia la sfida intrinseca di salvaguardare la privacy dei pazienti durante la costruzione di potenti modelli di AI generativa. La stessa ricchezza di dati che rende i dati preziosi per scopi di AI rende anche incredibilmente difficile anonimizzarli. Rocher sostiene uno stretto controllo dell’NHS su questi modelli per garantirne un utilizzo sicuro.

Michael Chapman di NHS Digital riconosce il rischio intrinseco di re-identificazione, anche con dati de-identificati. Mentre gli identificatori diretti vengono rimossi, la ricchezza dei dati sanitari rende difficile garantire la completa anonimità.

Per contrastare questo rischio, Chapman ha affermato che l’AI opera all’interno di un ambiente di dati NHS “sicuro”, che limita la perdita di informazioni e garantisce l’accesso solo ai ricercatori approvati. Amazon Web Services e Databricks forniscono infrastrutture computazionali, ma non possono accedere ai dati.

Yves-Alexandre de Montjoye dell’Imperial College London suggerisce di verificare la capacità di un modello di memorizzare i dati di addestramento per rilevare potenziali perdite di informazioni. Interrogato da New Scientist, Tomlinson ha ammesso che il team di Foresight non aveva ancora condotto questi test, ma prevedeva di farlo in futuro.

Fiducia Pubblica e Utilizzo dei Dati

Caroline Green dell’Università di Oxford sottolinea l’importanza di comunicare l’utilizzo dei dati al pubblico per mantenere la fiducia. Nonostante gli sforzi di anonimizzazione, le persone generalmente vogliono controllare i propri dati e comprenderne la destinazione, il che le rende molto sensibili all’etica della questione.

I controlli attuali offrono opzioni limitate per gli individui di rinunciare all’utilizzo dei dati da parte di Foresight. I dati provenienti da set di dati NHS raccolti a livello nazionale vengono utilizzati per addestrare il modello e i meccanismi di opt-out esistenti non si applicano perché i dati sono stati “de-identificati”, secondo un portavoce di NHS England. Tuttavia, gli individui che hanno rinunciato alla condivisione dei dati dal proprio medico di famiglia non avranno i propri dati inclusi nel modello.

GDPR e Anonimizzazione dei Dati

Il Regolamento Generale sulla Protezione dei Dati (GDPR) stabilisce che gli individui hanno la possibilità di revocare il consenso per l’utilizzo dei propri dati personali. Tuttavia, il processo di addestramento degli LLM come Foresight rende impossibile rimuovere un singolo record dallo strumento AI. Il portavoce di NHS England afferma che il GDPR non si applica perché i dati utilizzati per addestrare il modello sono anonimizzati e non costituiscono dati personali.

Il sito web dell’Information Commissioner’s Office del Regno Unito chiarisce che i dati “de-identificati” non devono essere utilizzati in modo intercambiabile con i dati anonimi, poiché la legge sulla protezione dei dati del Regno Unito non definisce il termine e il suo utilizzo può portare a confusione.

La posizione legale è ulteriormente complicata dall’attuale utilizzo di Foresight per la ricerca relativa al COVID-19, che consente eccezioni alle leggi sulla protezione dei dati emanate durante la pandemia, secondo Sam Smith di medConfidential. Smith afferma che l’AI solo per il COVID probabilmente contiene dati dei pazienti incorporati che non dovrebbero lasciare il laboratorio e i pazienti dovrebbero avere il controllo sull’utilizzo dei propri dati.

Considerazioni Etiche

Le considerazioni etiche che circondano l’utilizzo di dati medici per lo sviluppo dell’AI pongono Foresight in una posizione precaria. Green sostiene che l’etica e le considerazioni umane dovrebbero essere il punto di partenza per lo sviluppo dell’AI, piuttosto che un ripensamento.

Esaminare Più a Fondo le Preoccupazioni

Le preoccupazioni sull’utilizzo di cartelle cliniche NHS da parte di Foresight vanno oltre la semplice privacy dei dati. Toccano questioni fondamentali sulla proprietà delle informazioni personali sulla salute, il potenziale di pregiudizio algoritmico e l’impatto a lungo termine dell’AI sulla relazione medico-paziente.

Proprietà e Controllo dei Dati Sanitari

Uno dei principali dilemmi etici è la misura in cui gli individui dovrebbero avere il controllo dei propri dati sanitari. Sebbene l’NHS abbia indubbiamente bisogno di accedere alle informazioni sui pazienti per fornire cure efficaci, l’utilizzo di questi dati per l’addestramento dell’AI solleva interrogativi sul fatto che gli individui siano adeguatamente informati e autorizzati a consentire tali usi secondari.

Gli attuali meccanismi di opt-out sono insufficienti, in quanto non affrontano pienamente le complessità dell’addestramento dell’AI. L’argomentazione secondo cui i dati de-identificati non sono più dati personali ai sensi del GDPR è un’interpretazione legale che trascura la realtà che anche i dati anonimizzati possono potenzialmente essere re-identificati o utilizzati per trarre inferenze sugli individui.

Un approccio più solido comporterebbe l’implementazione di un sistema di consenso informato che delinei esplicitamente come i dati dei pazienti possono essere utilizzati per la ricerca e lo sviluppo dell’AI. Ciò richiederebbe spiegazioni chiare e accessibili dei potenziali benefici e rischi di tali usi, oltre a fornire agli individui un’opportunità significativa per aderire o rinunciare.

Pregiudizio Algoritmico

Un’altra preoccupazione significativa è il potenziale di pregiudizio algoritmico nei modelli di AI addestrati su set di dati di grandi dimensioni. Se i dati utilizzati per addestrare Foresight riflettono le disparità sanitarie esistenti, il modello può perpetuare e persino amplificare queste disuguaglianze.

Ad esempio, se determinati gruppi demografici sono sottorappresentati nel set di dati o se le loro condizioni mediche sono diagnosticate erroneamente o non curate, l’AI potrebbe essere meno precisa nella previsione di malattie o ricoveri ospedalieri per questi gruppi. Ciò potrebbe portare a un accesso ineguale alle risorse sanitarie e potenzialmente esacerbare le disuguaglianze sanitarie esistenti.

Per mitigare il rischio di pregiudizio algoritmico, è essenziale analizzare attentamente i dati utilizzati per addestrare Foresight e identificare e affrontare eventuali potenziali pregiudizi. Ciò può comportare il sovra-campionamento di gruppi sottorappresentati, la correzione di imprecisioni nei dati e lo sviluppo di algoritmi specificamente progettati per essere equi ed equi.

Impatto sulla Relazione Medico-Paziente

Il crescente utilizzo dell’AI nell’assistenza sanitaria ha il potenziale per alterare la tradizionale relazione medico-paziente in modi profondi. Sebbene l’AI possa indubbiamente aiutare i medici a prendere decisioni più informate, è fondamentale garantire che non sostituisca l’elemento umano della cura.

I pazienti devono sentirsi fiduciosi che i loro medici stiano utilizzando l’AI come strumento per migliorare il loro giudizio clinico, non come un sostituto di esso. La relazione medico-paziente dovrebbe rimanere una relazione di fiducia, empatia e processo decisionale condiviso.

Per salvaguardare la relazione medico-paziente, è importante sottolineare l’importanza dell’interazione umana e della comunicazione nell’assistenza sanitaria. I medici dovrebbero essere addestrati a comunicare efficacemente il ruolo dell’AI nel loro processo decisionale e ad affrontare eventuali preoccupazioni che i pazienti potrebbero avere.

Trovare una Via da Seguire

Navigare nel complesso panorama etico e legale che circonda l’AI nell’assistenza sanitaria richiede un approccio multiforme.

  • Trasparenza e coinvolgimento pubblico: comunicare apertamente come vengono utilizzati i dati dei pazienti e coinvolgere il pubblico in discussioni sulle implicazioni etiche dell’AI nell’assistenza sanitaria.
  • Rafforzare la protezione dei dati: implementare misure di protezione dei dati più rigorose per ridurre al minimo il rischio di re-identificazione e garantire che gli individui abbiano un maggiore controllo sui propri dati sanitari.
  • Affrontare il pregiudizio algoritmico: identificare e mitigare attivamente il pregiudizio algoritmico nei modelli di AI per garantire un accesso equo all’assistenza sanitaria per tutti.
  • Dare priorità all’assistenza incentrata sull’uomo: sottolineare l’importanza della relazione medico-paziente e garantire che l’AI sia utilizzata come strumento per migliorare, non sostituire, l’interazione umana.

Affrontando queste preoccupazioni, possiamo sfruttare il potenziale trasformativo dell’AI nell’assistenza sanitaria salvaguardando al contempo la privacy dei pazienti, promuovendo l’equità e preservando l’elemento umano della cura. Il futuro dell’assistenza sanitaria dipende dalla nostra capacità di affrontare queste sfide in modo responsabile ed etico. Solo allora potremo garantire che l’AI serva veramente i migliori interessi dei pazienti e della società nel suo insieme.