Die Entwicklung von Foresight, einem Modell der künstlichen Intelligenz (KI), hat aufgrund seiner Abhängigkeit von einem umfangreichen Datensatz mit 57 Millionen medizinischen Aufzeichnungen des National Health Service (NHS) in England eine beträchtliche Debatte ausgelöst. Während Befürworter sein Potenzial zur Revolutionierung des Gesundheitswesens durch Krankheitsprognose und Krankenhausaufenthaltsvorhersage anpreisen, äußern Kritiker ernsthafte Bedenken hinsichtlich des Datenschutzes und des Datenschutzes von Patienten. Dieser Artikel befasst sich mit den Feinheiten von Foresight, untersucht seine Fähigkeiten, die ethischen Dilemmata, die es darstellt, und die vorhandenen Schutzmaßnahmen zur Minderung potenzieller Risiken.
Foresight: Ein generatives KI-Modell im nationalen Maßstab
Foresight, das 2023 konzipiert wurde, nutzte zunächst GPT-3 von OpenAI, die Technologie, die die erste Iteration von ChatGPT untermauert, und wurde mit 1,5 Millionen Patientenakten aus zwei Londoner Krankenhäusern trainiert. Chris Tomlinson vom University College London und sein Team haben Foresight inzwischen erweitert und es als das weltweit erste "generative KI-Modell von Gesundheitsdaten im nationalen Maßstab" bezeichnet. Diese verbesserte Version nutzt Meta’s Open-Source-LLM Llama 2 und integriert acht verschiedene Datensätze, die routinemäßig vom NHS in England von November 2018 bis Dezember 2023 zusammengetragen wurden. Diese Datensätze umfassen ambulante Termine, Krankenhausaufenthalte, Impfprotokolle und andere gesundheitsbezogene Ereignisse, insgesamt 10 Milliarden Datenpunkte für 57 Millionen Einzelpersonen – im Wesentlichen die gesamte Bevölkerung Englands.
Obwohl aufgrund laufender Tests keine öffentlich zugänglichen Leistungskennzahlen vorliegen, behauptet Tomlinson, dass Foresight letztendlich individuelle Diagnosen erleichtern und breitere Gesundheitstrends wie Krankenhausaufenthalte oder Herzinfarkte vorhersagen könnte. Er betonte das Potenzial des Modells, Krankheitskomplikationen präventiv vorherzusagen, was ein frühzeitiges Eingreifen und eine Verlagerung hin zu einer präventiven Gesundheitsversorgung in großem Maßstab während einer Pressekonferenz am 6. Mai ermöglicht.
Bedenken hinsichtlich Datenschutz und Datensicherheit
Die Aussicht, solch umfangreiche medizinische Daten in ein KI-Modell einzuspeisen, hat Bedenken hinsichtlich des Datenschutzes ausgelöst. Obwohl Forscher behaupten, dass alle Aufzeichnungen vor dem Training der KI "de-identifiziert" wurden, bleibt das Risiko einer Re-Identifizierung durch Datenmusteranalyse ein erhebliches Problem, insbesondere bei großen Datensätzen.
Luc Rocher von der Universität Oxford hebt die inhärente Herausforderung hervor, den Datenschutz der Patienten bei der Entwicklung leistungsstarker generativer KI-Modelle zu gewährleisten. Gerade die Datenfülle, die die Daten für KI-Zwecke wertvoll macht, macht es auch unglaublich schwierig, sie zu anonymisieren. Rocher plädiert für eine strenge NHS-Kontrolle über diese Modelle, um eine sichere Nutzung zu gewährleisten.
Michael Chapman von NHS Digital räumt das inhärente Risiko einer Re-Identifizierung ein, selbst bei de-identifizierten Daten. Während direkte Kennungen entfernt werden, macht die Fülle an Gesundheitsdaten es schwierig, vollständige Anonymität zu garantieren.
Um diesem Risiko entgegenzuwirken, erklärte Chapman, dass die KI in einer "sicheren" NHS-Datenumgebung arbeitet, die Informationslecks einschränkt und den Zugriff nur auf zugelassene Forscher gewährleistet. Amazon Web Services und Databricks stellen die Recheninfrastruktur bereit, können aber nicht auf die Daten zugreifen.
Yves-Alexandre de Montjoye vom Imperial College London schlägt vor, die Fähigkeit eines Modells zu überprüfen, Trainingsdaten zu speichern, um potenzielle Informationslecks zu erkennen. Auf Nachfrage von New Scientist gab Tomlinson zu, dass das Foresight-Team diese Tests noch nicht durchgeführt habe, dies aber in Zukunft plane.
Öffentliches Vertrauen und Datennutzung
Caroline Green von der Universität Oxford betont, wie wichtig es ist, die Datennutzung der Öffentlichkeit zu kommunizieren, um das Vertrauen zu erhalten. Trotz Anonymisierungsbemühungen wollen die Menschen im Allgemeinen die Kontrolle über ihre Daten haben und deren Bestimmungsort verstehen, was sie sehr stark über die Ethik davon denken lässt.
Die aktuellen Kontrollen bieten Einzelpersonen nur begrenzte Möglichkeiten, die Datennutzung durch Foresight abzulehnen. Daten aus national erhobenen NHS-Datensätzen werden verwendet, um das Modell zu trainieren, und bestehende Opt-out-Mechanismen gelten nicht, da die Daten laut einem Sprecher von NHS England "de-identifiziert" wurden. Einzelpersonen, die sich jedoch gegen die Weitergabe von Daten von ihrem Hausarzt entschieden haben, werden ihre Daten nicht in das Modell aufgenommen.
DSGVO und Datenanonymisierung
Die Datenschutz-Grundverordnung (DSGVO) schreibt vor, dass Einzelpersonen die Möglichkeit haben, die Einwilligung zur Verwendung ihrer personenbezogenen Daten zu widerrufen. Der Trainingsprozess von LLMs wie Foresight macht es jedoch unmöglich, einen einzelnen Datensatz aus dem KI-Tool zu entfernen. Der Sprecher von NHS England beteuert, dass die DSGVO nicht anwendbar ist, da die zum Trainieren des Modells verwendeten Daten anonymisiert sind und keine personenbezogenen Daten darstellen.
Auf der Website des UK Information Commissioner’s Office wird klargestellt, dass "de-identifizierte" Daten nicht synonym mit anonymen Daten verwendet werden sollten, da das britische Datenschutzgesetz den Begriff nicht definiert und seine Verwendung zu Verwirrung führen kann.
Die rechtliche Lage wird durch die derzeitige Verwendung von Foresight für die Forschung im Zusammenhang mit COVID-19 weiter verkompliziert, die Ausnahmen von den während der Pandemie erlassenen Datenschutzgesetzen ermöglicht, so Sam Smith von medConfidential. Smith behauptet, dass die COVID-only-KI wahrscheinlich eingebettete Patientendaten enthält, die das Labor nicht verlassen sollten, und die Patienten die Kontrolle über ihre Datennutzung haben sollten.
Ethische Überlegungen
Die ethischen Überlegungen im Zusammenhang mit der Verwendung medizinischer Daten für die KI-Entwicklung bringen Foresight in eine prekäre Position. Green argumentiert, dass Ethik und menschliche Überlegungen der Ausgangspunkt für die KI-Entwicklung sein sollten und nicht ein nachträglicher Einfall.
Vertiefung der Bedenken
Die Bedenken hinsichtlich der Verwendung von NHS-Krankenakten durch Foresight gehen über den reinen Datenschutz hinaus. Sie berühren grundlegende Fragen nach dem Eigentum an persönlichen Gesundheitsinformationen, dem Potenzial für algorithmische Verzerrungen und den langfristigen Auswirkungen von KI auf die Arzt-Patienten-Beziehung.
Eigentum und Kontrolle über Gesundheitsdaten
Eines der zentralen ethischen Dilemmata ist das Ausmaß, in dem Einzelpersonen die Kontrolle über ihre eigenen Gesundheitsdaten haben sollten. Während der NHS zweifellos Zugang zu Patienteninformationen benötigt, um eine wirksame Versorgung zu gewährleisten, wirft die Verwendung dieser Daten für das KI-Training Fragen auf, ob Einzelpersonen ausreichend informiert und befähigt werden, solchen sekundären Verwendungen zuzustimmen.
Die derzeitigen Opt-out-Mechanismen sind unzureichend, da sie die Komplexität des KI-Trainings nicht vollständig berücksichtigen. Das Argument, dass de-identifizierte Daten nach der DSGVO keine personenbezogenen Daten mehr sind, ist eine rechtliche Auslegung, die die Realität übersieht, dass selbst anonymisierte Daten potenziell re-identifiziert oder verwendet werden können, um Rückschlüsse auf Einzelpersonen zu ziehen.
Ein robusterer Ansatz würde die Implementierung eines Systems der informierten Zustimmung beinhalten, das explizit darlegt, wie Patientendaten für KI-Forschung und -Entwicklung verwendet werden können. Dies würde klare und zugängliche Erläuterungen zu den potenziellen Vorteilen und Risiken solcher Nutzungen erfordern und Einzelpersonen eine sinnvolle Möglichkeit bieten, sich an- oder abzumelden.
Algorithmische Verzerrung
Ein weiteres wichtiges Anliegen ist das Potenzial für algorithmische Verzerrungen in KI-Modellen, die auf großen Datensätzen trainiert wurden. Wenn die zum Trainieren von Foresight verwendeten Daten bestehende gesundheitliche Ungleichheiten widerspiegeln, kann das Modell diese Ungleichheiten verewigen und sogar verstärken.
Wenn beispielsweise bestimmte demografische Gruppen in den Daten unterrepräsentiert sind oder ihre medizinischen Bedingungen falsch diagnostiziert oder unterbehandelt werden, kann die KI bei der Vorhersage von Krankheiten oder Krankenhausaufenthalten für diese Gruppen weniger genau sein. Dies könnte zu einem ungleichen Zugang zu Ressourcen des Gesundheitswesens führen und möglicherweise bestehende gesundheitliche Ungleichheiten verschärfen.
Um das Risiko algorithmischer Verzerrungen zu mindern, ist es unerlässlich, die zum Trainieren von Foresight verwendeten Daten sorgfältig zu analysieren und potenzielle Verzerrungen zu identifizieren und zu beheben. Dies kann die Überabtastung unterrepräsentierter Gruppen, die Korrektur von Ungenauigkeiten in den Daten und die Entwicklung von Algorithmen beinhalten, die speziell auf Fairness und Gerechtigkeit ausgelegt sind.
Auswirkung auf die Arzt-Patienten-Beziehung
Die zunehmende Verwendung von KI im Gesundheitswesen hat das Potenzial, die traditionelle Arzt-Patienten-Beziehung auf tiefgreifende Weise zu verändern. Während KI den Ärzten zweifellos helfen kann, fundiertere Entscheidungen zu treffen, ist es entscheidend sicherzustellen, dass sie das menschliche Element der Versorgung nicht ersetzt.
Die Patienten müssen darauf vertrauen können, dass ihre Ärzte KI als Werkzeug verwenden, um ihr klinisches Urteilsvermögen zu verbessern, und nicht als Ersatz dafür. Die Arzt-Patienten-Beziehung sollte eine des Vertrauens, der Empathie und der gemeinsamen Entscheidungsfindung bleiben.
Um die Arzt-Patienten-Beziehung zu schützen, ist es wichtig, die Bedeutung menschlicher Interaktion und Kommunikation im Gesundheitswesen zu betonen. Ärzte sollten darin geschult werden, die Rolle der KI in ihrem Entscheidungsprozess effektiv zu kommunizieren und alle Bedenken der Patienten auszuräumen.
Einen Weg nach vorn finden
Die Navigation in der komplexen ethischen und rechtlichen Landschaft rund um KI im Gesundheitswesen erfordert einen vielschichtigen Ansatz.
- Transparenz und öffentliches Engagement: Offen kommunizieren, wie Patientendaten verwendet werden, und die Öffentlichkeit in Diskussionen über die ethischen Implikationen von KI im Gesundheitswesen einbeziehen.
- Stärkung des Datenschutzes: Strengere Datenschutzmaßnahmen implementieren, um das Risiko einer Re-Identifizierung zu minimieren und sicherzustellen, dass Einzelpersonen mehr Kontrolle über ihre Gesundheitsdaten haben.
- Bekämpfung algorithmischer Verzerrungen: Algorithmische Verzerrungen in KI-Modellen aktiv identifizieren und mildern, um einen gerechten Zugang zur Gesundheitsversorgung für alle zu gewährleisten.
- Priorisierung einer menschenzentrierten Versorgung: Die Bedeutung der Arzt-Patienten-Beziehung betonen und sicherstellen, dass KI als Werkzeug zur Verbesserung und nicht zur Ersetzung menschlicher Interaktion eingesetzt wird.
Indem wir diese Bedenken ausräumen, können wir das transformative Potenzial von KI im Gesundheitswesen nutzen und gleichzeitig den Datenschutz der Patienten wahren, Gerechtigkeit fördern und das menschliche Element der Versorgung erhalten. Die Zukunft des Gesundheitswesens hängt von unserer Fähigkeit ab, diese Herausforderungen verantwortungsvoll und ethisch zu meistern. Nur dann können wir sicherstellen, dass KI wirklich den besten Interessen der Patienten und der Gesellschaft als Ganzes dient.