AI-Model NHS Zorgt voor Privacyzorgen

Het ontstaan van Foresight, een model voor kunstmatige intelligentie (AI), heeft tot veel discussie geleid door het gebruik van een enorme dataset van 57 miljoen medische dossiers van de National Health Service (NHS) in Engeland. Voorstanders prijzen het potentieel om de gezondheidszorg radicaal te veranderen door ziektevoorspelling en prognoses van ziekenhuisopnames, maar critici uiten hun bezorgdheid over de privacy van patiënten en gegevensbescherming. Dit artikel gaat in op de complexiteit van Foresight, onderzoekt de mogelijkheden, de ethische dilemma’s en de beschermingsmaatregelen om potentiële risico’s te beperken.

Foresight: Een Generatief AI-model op Nationale Schaal

Foresight, ontstaan in 2023, gebruikte in eerste instantie GPT-3 van OpenAI, de technologie achter de eerste versie van ChatGPT, en werd getraind op 1,5 miljoen patiëntgegevens van twee Londense ziekenhuizen. Chris Tomlinson van University College London en zijn team hebben Foresight sindsdien uitgebreid en het ‘s werelds eerste “generatieve AI-model van gezondheidsgegevens op nationale schaal” genoemd. Deze verbeterde versie maakt gebruik van Meta’s open-source LLM Llama 2 en bevat acht verschillende datasets die routinematig worden verzameld door de NHS in Engeland van november 2018 tot december 2023. Deze datasets omvatten poliklinische afspraken, ziekenhuisopnames, vaccinatieregistraties en andere gezondheidsgerelateerde gebeurtenissen, in totaal 10 miljard datapunten van 57 miljoen personen - in feite de gehele bevolking van Engeland.

Ondanks het gebrek aan openbaar beschikbare prestatiegegevens vanwege voortdurende tests, beweert Tomlinson dat Foresight uiteindelijk individuele diagnoses zou kunnen faciliteren en bredere gezondheidstrends zou kunnen voorspellen, zoals ziekenhuisopnames of hartaanvallen. Hij benadrukte het potentieel van het model om ziektecomplicaties preventief te voorspellen, waardoor vroege interventie en een verschuiving naar preventieve gezondheidszorg op schaal mogelijk wordt, tijdens een persconferentie op 6 mei.

Privacy- en Gegevensbeschermingsproblemen

Het vooruitzicht om dergelijke uitgebreide medische gegevens in een AI-model in te voeren, heeft geleid tot bezorgdheid over privacy. Hoewel onderzoekers beweren dat alle records “geanonimiseerd” zijn voordat de AI werd getraind, blijft het risico van her-identificatie door data-patroonanalyse een aanzienlijke zorg, vooral bij grote datasets.

Luc Rocher van de Universiteit van Oxford benadrukt de inherente uitdaging om de privacy van patiënten te waarborgen bij het bouwen van krachtige generatieve AI-modellen. De data-rijkdom die de data waardevol maakt voor AI-doeleinden maakt het ook ongelooflijk moeilijk te anonimiseren. Rocher pleit voor strikte NHS-controle over deze modellen om een veilig gebruik te garanderen.

Michael Chapman van NHS Digital erkent het inherente risico van her-identificatie, zelfs met geanonimiseerde data. Hoewel directe identificatoren worden verwijderd, maakt de rijkdom aan gezondheidsgegevens het moeilijk om volledige anonimiteit te garanderen.

Om dit risico tegen te gaan, verklaarde Chapman dat de AI werkt binnen een “veilige” NHS-dataomgeving, waardoor informatielekken worden beperkt en toegang alleen wordt verleend aan goedgekeurde onderzoekers. Amazon Web Services en Databricks bieden de computationele infrastructuur, maar hebben geen toegang tot de data.

Yves-Alexandre de Montjoye van Imperial College London suggereert het verifiëren van het vermogen van een model om trainingsdata te onthouden om potentiële informatielekken te detecteren. Toen New Scientist vragen stelde, gaf Tomlinson toe dat het Foresight-team deze tests nog niet had uitgevoerd, maar dit wel in de toekomst van plan was.

Publiek Vertrouwen en Data-Gebruik

Caroline Green van de Universiteit van Oxford benadrukt het belang van het communiceren van data-gebruik aan het publiek om het vertrouwen te behouden. Ondanks anonimiseringsinspanningen willen mensen over het algemeen hun data controleren en begrijpen waar ze naartoe gaat, waardoor ze zich zeer sterk voelen over de ethiek ervan.

De huidige controles bieden beperkte mogelijkheden voor individuen om zich af te melden voor data-gebruik door Foresight. Data van nationaal verzamelde NHS-datasets wordt gebruikt om het model te trainen, en bestaande afmeldmechanismen zijn niet van toepassing omdat de data “geanonimiseerd” is, aldus een woordvoerder van NHS England. Individuen die zich hebben afgemeld voor het delen van data van hun huisarts, zullen echter niet hun data in het model opgenomen zien.

AVG en Data-Anonimisering

De Algemene Verordening Gegevensbescherming (AVG) verplicht dat individuen de mogelijkheid hebben om toestemming voor het gebruik van hun persoonlijke data in te trekken. Het trainingsproces van LLM’s zoals Foresight maakt het echter onmogelijk om een enkel record uit de AI-tool te verwijderen. De woordvoerder van NHS England beweert dat de AVG niet van toepassing is omdat de data die is gebruikt om het model te trainen, is geanonimiseerd en geen persoonlijke data vormt.

De website van het Britse Information Commissioner’s Office verduidelijkt dat “geanonimiseerde” data niet door elkaar mag worden gebruikt met anonieme data, aangezien de Britse wetgeving inzake gegevensbescherming de term niet definieert en het gebruik ervan tot verwarring kan leiden.

De juridische positie wordt verder gecompliceerd door het huidige gebruik van Foresight voor onderzoek naar COVID-19, wat uitzonderingen toestaat op wetten inzake gegevensbescherming die tijdens de pandemie zijn aangenomen, aldus Sam Smith van medConfidential. Smith beweert dat de COVID-only AI waarschijnlijk ingebedde patiëntgegevens bevat die het lab niet zouden mogen verlaten, en dat patiënten controle zouden moeten hebben over hun data-gebruik.

Ethische Overwegingen

De ethische overwegingen rond het gebruik van medische data voor AI-ontwikkeling plaatsen Foresight in een precaire positie. Green stelt dat ethiek en menselijke overwegingen het uitgangspunt moeten zijn voor AI-ontwikkeling, en niet een bijzaak.

Onderzoek naar de Zorgen in Meer Diepte

De zorgen over het gebruik van NHS-medische dossiers door Foresight gaan verder dan louter dataprivacy. Ze raken fundamentele vragen over het eigendom van persoonlijke gezondheidsinformatie, het potentieel voor algoritmische bias en de langetermijnimpact van AI op de dokter-patiëntrelatie.

Eigendom en Controle van Gezondheidsgegevens

Een van de belangrijkste ethische dilemma’s is de mate waarin individuen controle moeten hebben over hun eigen gezondheidsgegevens. Hoewel de NHS ongetwijfeld toegang nodig heeft tot patiëntinformatie om effectieve zorg te verlenen, roept het gebruik van deze data voor AI-training vragen op over de vraag of individuen voldoende worden geïnformeerd over en in staat worden gesteld om toestemming te geven voor dergelijke secundaire toepassingen.

De huidige afmeldmechanismen zijn onvoldoende, omdat ze de complexiteit van AI-training niet volledig aanpakken. Het argument dat geanonimiseerde data niet langer persoonlijke data is onder de AVG is een juridische interpretatie die voorbijgaat aan de realiteit dat zelfs geanonimiseerde data potentieel opnieuw kan worden geïdentificeerd of kan worden gebruikt om gevolgtrekkingen te maken over individuen.

Een robuustere aanpak zou de implementatie van een systeem van geïnformeerde toestemming omvatten dat expliciet uiteenzet hoe patiëntgegevens kunnen worden gebruikt voor AI-onderzoek en -ontwikkeling. Dit vereist duidelijke en toegankelijke uitleg van de potentiële voordelen en risico’s van dergelijke toepassingen, en het bieden van individuen een zinvolle mogelijkheid om zich aan of af te melden.

Algoritmische Bias

Een andere belangrijke zorg is het potentieel voor algoritmische bias in AI-modellen die zijn getraind op grote datasets. Als de data die wordt gebruikt om Foresight te trainen bestaande gezondheidsverschillen weerspiegelt, kan het model deze ongelijkheden bestendigen en zelfs versterken.

Als bijvoorbeeld bepaalde demografische groepen ondervertegenwoordigd zijn in de dataset of als hun medische aandoeningen verkeerd worden gediagnosticeerd of onvoldoende worden behandeld, kan de AI minder nauwkeurig zijn in het voorspellen van ziekte of ziekenhuisopnames voor deze groepen. Dit kan leiden tot ongelijke toegang tot zorgbronnen en mogelijk bestaande gezondheidsongelijkheden verergeren.

Om het risico van algoritmische bias te beperken, is het essentieel om de data die wordt gebruikt om Foresight te trainen zorgvuldig te analyseren en om potentiële biases te identificeren en aan te pakken. Dit kan het overbemonsteren van ondervertegenwoordigde groepen omvatten, het corrigeren van onnauwkeurigheden in de data en het ontwikkelen van algoritmen die specifiek zijn ontworpen om eerlijk en rechtvaardig te zijn.

Impact op de Dokter-Patiëntrelatie

Het toenemende gebruik van AI in de gezondheidszorg heeft het potentieel om de traditionele dokter-patiëntrelatie op ingrijpende wijze te veranderen. Hoewel AI artsen ongetwijfeld kan helpen bij het nemen van betere beslissingen, is het cruciaal om ervoor te zorgen dat het de menselijke factor van de zorg niet vervangt.

Patiënten moeten erop kunnen vertrouwen dat hun artsen AI gebruiken als een hulpmiddel om hun klinische oordeel te verbeteren, niet als een vervanging ervan. De dokter-patiëntrelatie moet een relatie van vertrouwen, empathie en gedeelde besluitvorming blijven.

Om de dokter-patiëntrelatie te beschermen, is het belangrijk om het belang van menselijke interactie en communicatie in de gezondheidszorg te benadrukken. Artsen moeten worden opgeleid om de rol van AI in hun besluitvormingsproces effectief te communiceren en om eventuele zorgen van patiënten weg te nemen.

Een Weg Voorwaarts Vinden

Het navigeren door het complexe ethische en juridische landschap rond AI in de gezondheidszorg vereist een veelzijdige aanpak.

  • Transparantie en Publieke Betrokkenheid: Communiceer openlijk hoe patiëntgegevens worden gebruikt en betrek het publiek bij discussies over de ethische implicaties van AI in de gezondheidszorg.
  • Versterking van Databescherming: Implementeer strengere databeschermingsmaatregelen om het risico van her-identificatie te minimaliseren en ervoor te zorgen dat individuen meer controle hebben over hun gezondheidsgegevens.
  • Aanpak van Algoritmische Bias: Identificeer en beperk actief algoritmische bias in AI-modellen om een gelijke toegang tot gezondheidszorg voor iedereen te garanderen.
  • Prioriteit geven aan Mensgerichte Zorg: Benadruk het belang van de dokter-patiëntrelatie en zorg ervoor dat AI wordt gebruikt als een hulpmiddel om menselijke interactie te verbeteren, niet te vervangen.

Door deze zorgen aan te pakken, kunnen we het transformerende potentieel van AI in de gezondheidszorg benutten, terwijl we de privacy van patiënten beschermen, gelijkheid bevorderen en het menselijke element van de zorg behouden. De toekomst van de gezondheidszorg hangt af van ons vermogen om deze uitdagingen op verantwoorde en ethische wijze aan te gaan. Alleen dan kunnen we ervoor zorgen dat AI echt de belangen van patiënten en de samenleving als geheel dient.