L’essor de Foresight, un modèle d’intelligence artificielle (IA), a suscité un débat considérable en raison de sa dépendance à un vaste ensemble de données de 57 millions de dossiers médicaux du National Health Service (NHS) en Angleterre. Alors que les partisans vantent son potentiel de révolutionner les soins de santé grâce à la prédiction des maladies et à la prévision des hospitalisations, les critiques expriment de sérieuses préoccupations concernant la vie privée des patients et la protection des données. Cet article se penche sur les subtilités de Foresight, en examinant ses capacités, les dilemmes éthiques qu’il présente et les mesures de protection en place pour atténuer les risques potentiels.
Foresight : Un modèle d’IA générative à l’échelle nationale
Foresight, conçu en 2023, a initialement utilisé GPT-3 d’OpenAI, la technologie sous-tendant la première itération de ChatGPT, et a été formé sur 1,5 million de dossiers de patients provenant de deux hôpitaux de Londres. Chris Tomlinson de l’University College London et son équipe ont depuis étendu Foresight, le qualifiant de premier « modèle d’IA générative de données de santé à l’échelle nationale » au monde. Cette version améliorée exploite Llama 2, le LLM open-source de Meta, et intègre huit ensembles de données distincts régulièrement accumulés par le NHS en Angleterre de novembre 2018 à décembre 2023. Ces ensembles de données englobent les rendez-vous en consultation externe, les admissions à l’hôpital, les dossiers de vaccination et d’autres événements liés à la santé, totalisant 10 milliards de points de données sur 57 millions de personnes – essentiellement l’ensemble de la population d’Angleterre.
Malgré le manque de mesures de performance accessibles au public en raison des tests en cours, Tomlinson affirme que Foresight pourrait éventuellement faciliter les diagnostics individuels et prédire les tendances sanitaires plus larges, telles que les hospitalisations ou les crises cardiaques. Il a souligné le potentiel du modèle pour prédire les complications de maladies de manière préemptive, permettant une intervention précoce et un passage à des soins de santé préventifs à grande échelle lors d’une conférence de presse le 6 mai.
Préoccupations relatives à la vie privée et à la protection des données
La perspective d’introduire des données médicales aussi vastes dans un modèle d’IA a suscité des inquiétudes quant à la vie privée. Bien que les chercheurs affirment que tous les dossiers ont été « dépersonnalisés » avant de former l’IA, le risque de réidentification par l’analyse des schémas de données reste une préoccupation importante, en particulier avec les grands ensembles de données.
Luc Rocher de l’Université d’Oxford souligne le défi inhérent à la sauvegarde de la vie privée des patients lors de la construction de puissants modèles d’IA générative. La richesse même des données qui les rend précieuses pour les besoins de l’IA les rend également incroyablement difficiles à anonymiser. Rocher plaide en faveur d’un contrôle strict du NHS sur ces modèles afin de garantir une utilisation sûre.
Michael Chapman de NHS Digital reconnaît le risque inhérent de réidentification, même avec des données dépersonnalisées. Bien que les identifiants directs soient supprimés, la richesse des données de santé rend difficile de garantir un anonymat complet.
Pour contrer ce risque, Chapman a déclaré que l’IA fonctionne dans un environnement de données du NHS « sécurisé », limitant les fuites d’informations et garantissant l’accès uniquement aux chercheurs approuvés. Amazon Web Services et Databricks fournissent une infrastructure informatique, mais ne peuvent pas accéder aux données.
Yves-Alexandre de Montjoye de l’Imperial College London suggère de vérifier la capacité d’un modèle à mémoriser les données de formation afin de détecter les fuites d’informations potentielles. Interrogé par New Scientist, Tomlinson a admis que l’équipe de Foresight n’avait pas encore effectué ces tests, mais prévoyait de le faire à l’avenir.
Confiance du public et utilisation des données
Caroline Green de l’Université d’Oxford souligne l’importance de communiquer l’utilisation des données au public afin de maintenir la confiance. Malgré les efforts d’anonymisation, les gens veulent généralement contrôler leurs données et comprendre leur destination, ce qui les rend très sensibles à l’éthique de la question.
Les contrôles actuels offrent des options limitées aux individus pour refuser l’utilisation des données par Foresight. Les données des ensembles de données du NHS collectés à l’échelle nationale sont utilisées pour former le modèle, et les mécanismes de refus existants ne s’appliquent pas car les données ont été « dépersonnalisées », selon un porte-parole de NHS England. Toutefois, les personnes qui ont refusé de partager les données de leur médecin de famille n’auront pas leurs données incluses dans le modèle.
RGPD et anonymisation des données
Le Règlement général sur la protection des données (RGPD) exige que les personnes aient la possibilité de retirer leur consentement à l’utilisation de leurs données personnelles. Toutefois, le processus de formation des LLM comme Foresight rend impossible la suppression d’un seul enregistrement de l’outil d’IA. Le porte-parole de NHS England affirme que le RGPD ne s’applique pas car les données utilisées pour former le modèle sont anonymisées et ne constituent pas des données personnelles.
Le site Web du Bureau du commissaire à l’information du Royaume-Uni précise que les données « dépersonnalisées » ne doivent pas être utilisées de manière interchangeable avec les données anonymes, car le droit britannique sur la protection des données ne définit pas le terme, et son utilisation peut entraîner une confusion.
La position juridique est encore compliquée par l’utilisation actuelle de Foresight pour la recherche liée à la COVID-19, qui autorise des exceptions aux lois sur la protection des données adoptées pendant la pandémie, selon Sam Smith de medConfidential. Smith affirme que l’IA réservée à la COVID contient probablement des données de patients intégrées qui ne devraient pas quitter le laboratoire, et les patients devraient avoir le contrôle de leur utilisation des données.
Considérations éthiques
Les considérations éthiques entourant l’utilisation des données médicales pour le développement de l’IA placent Foresight dans une position précaire. Green soutient que l’éthique et les considérations humaines devraient être le point de départ du développement de l’IA, plutôt qu’une réflexion après coup.
Examen plus approfondi des préoccupations
Les préoccupations concernant l’utilisation par Foresight des dossiers médicaux du NHS vont au-delà de la simple confidentialité des données. Elles touchent à des questions fondamentales sur la propriété des informations de santé personnelles, le potentiel de biais algorithmique et l’impact à long terme de l’IA sur la relation médecin-patient.
Propriété et contrôle des données de santé
L’un des principaux dilemmes éthiques est la mesure dans laquelle les individus devraient avoir le contrôle de leurs propres données de santé. Bien que le NHS ait sans aucun doute besoin d’accéder aux informations des patients pour fournir des soins efficaces, l’utilisation de ces données pour la formation à l’IA soulève des questions quant à savoir si les individus sont suffisamment informés et habilités à consentir à de telles utilisations secondaires.
Les mécanismes de refus actuels sont insuffisants, car ils ne traitent pas pleinement des complexités de la formation à l’IA. L’argument selon lequel les données dépersonnalisées ne sont plus des données personnelles en vertu du RGPD est une interprétation juridique qui néglige le fait que même les données anonymisées peuvent potentiellement être réidentifiées ou utilisées pour tirer des conclusions sur les individus.
Une approche plus solide consisterait à mettre en œuvre un système de consentement éclairé qui décrit explicitement comment les données des patients peuvent être utilisées pour la recherche et le développement de l’IA. Cela nécessiterait des explications claires et accessibles des avantages et des risques potentiels de ces utilisations, ainsi que la fourniture aux individus d’une possibilité significative de s’inscrire ou de se retirer.
Biais algorithmique
Une autre préoccupation importante est le potentiel de biais algorithmique dans les modèles d’IA formés sur de grands ensembles de données. Si les données utilisées pour former Foresight reflètent les disparités de santé existantes, le modèle peut perpétuer et même amplifier ces inégalités.
Par exemple, si certains groupes démographiques sont sous-représentés dans l’ensemble de données ou si leurs conditions médicales sont mal diagnostiquées ou sous-traitées, l’IA peut être moins précise dans la prédiction des maladies ou des hospitalisations pour ces groupes. Cela pourrait entraîner un accès inégal aux ressources de soins de santé et potentiellement exacerber les inégalités de santé existantes.
Pour atténuer le risque de biais algorithmique, il est essentiel d’analyser attentivement les données utilisées pour former Foresight et d’identifier et de traiter les biais potentiels. Cela peut impliquer le suréchantillonnage des groupes sous-représentés, la correction des inexactitudes dans les données et le développement d’algorithmes spécifiquement conçus pour être justes et équitables.
Impact sur la relation médecin-patient
L’utilisation croissante de l’IA dans les soins de santé a le potentiel de modifier la relation traditionnelle médecin-patient de manière profonde. Bien que l’IA puisse sans aucun doute aider les médecins à prendre des décisions plus éclairées, il est essentiel de s’assurer qu’elle ne remplace pas l’élément humain des soins.
Les patients doivent être sûrs que leurs médecins utilisent l’IA comme un outil pour améliorer leur jugement clinique, et non comme un substitut à celui-ci. La relation médecin-patient doit rester une relation de confiance, d’empathie et de prise de décision partagée.
Pour sauvegarder la relation médecin-patient, il est important de souligner l’importance de l’interaction humaine et de la communication dans les soins de santé. Les médecins doivent être formés pour communiquer efficacement le rôle de l’IA dans leur processus décisionnel et pour répondre aux préoccupations que les patients peuvent avoir.
Trouver une voie à suivre
Naviguer dans le paysage éthique et juridique complexe entourant l’IA dans les soins de santé nécessite une approche à plusieurs facettes.
- Transparence et engagement du public : Communiquer ouvertement comment les données des patients sont utilisées et engager le public dans des discussions sur les implications éthiques de l’IA dans les soins de santé.
- Renforcement de la protection des données : Mettre en œuvre des mesures de protection des données plus strictes pour minimiser le risque de réidentification et garantir que les individus ont un plus grand contrôle sur leurs données de santé.
- Lutte contre les biais algorithmiques : Identifier et atténuer activement les biais algorithmiques dans les modèles d’IA afin de garantir un accès équitable aux soins de santé pour tous.
- Priorité aux soins axés sur l’humain : Souligner l’importance de la relation médecin-patient et veiller à ce que l’IA soit utilisée comme un outil pour améliorer, et non remplacer, l’interaction humaine.
En répondant à ces préoccupations, nous pouvons exploiter le potentiel de transformation de l’IA dans les soins de santé tout en protégeant la vie privée des patients, en promouvant l’équité et en préservant l’élément humain des soins. L’avenir des soins de santé dépend de notre capacité à relever ces défis de manière responsable et éthique. Ce n’est qu’alors que nous pourrons nous assurer que l’IA sert véritablement les meilleurs intérêts des patients et de la société dans son ensemble.