Foresight: Model AI Skali Krajowej i Obawy o Prywatność
Rozwój Foresight, modelu sztucznej inteligencji (AI), wywołał poważną debatę ze względu na jego oparcie się na ogromnym zbiorze danych zawierającym 57 milionów rekordów medycznych z National Health Service (NHS) w Anglii. Podczas gdy zwolennicy chwalą jego potencjał rewolucjonizowania opieki zdrowotnej poprzez przewidywanie chorób i prognozowanie hospitalizacji, krytycy wyrażają poważne obawy dotyczące prywatności pacjentów i ochrony danych. Ten artykuł zagłębia się w zawiłości Foresight, analizując jego możliwości, dylematy etyczne, jakie stwarza, oraz zabezpieczenia mające na celu ograniczenie potencjalnych zagrożeń.
Foresight, poczęty w 2023 roku, początkowo wykorzystywał GPT-3 OpenAI, technologię stanowiącą podstawę pierwszej wersji ChatGPT, i został przeszkolony na 1,5 miliona rekordów pacjentów z dwóch londyńskich szpitali. Chris Tomlinson z University College London i jego zespół rozszerzyli od tego czasu Foresight, określając go jako pierwszy na świecie “model generatywnej AI danych zdrowotnych na skalę krajową”. Ta ulepszona wersja wykorzystuje open-source LLM Llama 2 firmy Meta i zawiera osiem odrębnych zbiorów danych rutynowo gromadzonych przez NHS w Anglii od listopada 2018 r. do grudnia 2023 r. Zbiory te obejmują wizyty ambulatoryjne, przyjęcia do szpitala, rejestry szczepień i inne zdarzenia związane ze zdrowiem, łącznie 10 miliardów punktów danych obejmujących 57 milionów osób - zasadniczo całą populację Anglii.
Pomimo braku publicznie dostępnych metryk wydajności ze względu na trwające testy, Tomlinson twierdzi, że Foresight mógłby ostatecznie ułatwić indywidualne diagnozy i przewidywać szersze trendy zdrowotne, takie jak hospitalizacje lub ataki serca. Podkreślił potencjał modelu do prewencyjnego przewidywania powikłań chorobowych, umożliwiając wczesną interwencję i przesunięcie w kierunku profilaktycznej opieki zdrowotnej na dużą skalę podczas konferencji prasowej 6 maja.
Obawy dotyczące Prywatności i Ochrony Danych
Perspektywa wprowadzania tak obszernych danych medycznych do modelu AI wywołała obawy dotyczące prywatności. Chociaż naukowcy twierdzą, że wszystkie rekordy zostały “zdeidentyfikowane” przed szkoleniem AI, ryzyko ponownej identyfikacji poprzez analizę wzorców danych pozostaje poważnym problemem, zwłaszcza w przypadku dużych zbiorów danych.
Luc Rocher z University of Oxford podkreśla nieodłączne wyzwanie, jakim jest ochrona prywatności pacjentów podczas budowania potężnych generatywnych modeli AI. Sama bogatość danych, która czyni je wartościowymi dla celów AI, sprawia również, że niezwykle trudno jest je zanonimizować. Rocher opowiada się za ścisłą kontrolą NHS nad tymi modelami, aby zapewnić bezpieczne użytkowanie.
Michael Chapman z NHS Digital przyznaje nieodłączne ryzyko ponownej identyfikacji, nawet w przypadku danych zdeidentyfikowanych. Chociaż bezpośrednie identyfikatory są usuwane, bogactwo danych zdrowotnych utrudnia zagwarantowanie całkowitej anonimowości.
Aby przeciwdziałać temu ryzyku, Chapman oświadczył, że AI działa w “bezpiecznym” środowisku danych NHS, ograniczając wyciek informacji i zapewniając dostęp tylko zatwierdzonym naukowcom. Amazon Web Services i Databricks zapewniają infrastrukturę obliczeniową, ale nie mają dostępu do danych.
Yves-Alexandre de Montjoye z Imperial College London sugeruje weryfikację zdolności modelu do zapamiętywania danych treningowych w celu wykrycia potencjalnego wycieku informacji. Zapytany przez New Scientist, Tomlinson przyznał, że zespół Foresight nie przeprowadził jeszcze tych testów, ale planuje to zrobić w przyszłości.
Zaufanie Publiczne i Wykorzystanie Danych
Caroline Green z University of Oxford podkreśla znaczenie komunikowania wykorzystania danych opinii publicznej w celu utrzymania zaufania. Pomimo wysiłków związanych z anonimizacją, ludzie generalnie chcą kontrolować swoje dane i rozumieć ich przeznaczenie, co sprawia, że bardzo mocno odczuwają etykę tego.
Obecne kontrole oferują ograniczone możliwości rezygnacji z wykorzystania danych przez Foresight. Dane z krajowych zbiorów danych NHS są wykorzystywane do szkolenia modelu, a istniejące mechanizmy rezygnacji nie mają zastosowania, ponieważ dane zostały “zdeidentyfikowane”, zgodnie z oświadczeniem rzecznika NHS England. Jednak osoby, które zrezygnowały z udostępniania danych od swojego lekarza rodzinnego, nie będą miały swoich danych uwzględnionych w modelu.
GDPR i Anonimizacja Danych
Ogólne rozporządzenie o ochronie danych (GDPR) nakazuje, aby osoby miały możliwość wycofania zgody na wykorzystywanie ich danych osobowych. Jednak proces szkolenia LLM, takich jak Foresight, uniemożliwia usunięcie pojedynczego rekordu z narzędzia AI. Rzecznik NHS England twierdzi, że GDPR nie ma zastosowania, ponieważ dane wykorzystywane do szkolenia modelu są zanonimizowane i nie stanowią danych osobowych.
Strona internetowa brytyjskiego biura komisarza ds. informacji wyjaśnia, że dane “zdeidentyfikowane” nie powinny być używane zamiennie z danymi anonimowymi, ponieważ brytyjskie prawo ochrony danych nie definiuje tego terminu, a jego użycie może prowadzić do nieporozumień.
Sytuacja prawna jest dodatkowo skomplikowana przez obecne wykorzystanie Foresight do badań związanych z COVID-19, co pozwala na wyjątki od przepisów o ochronie danych uchwalonych podczas pandemii, zgodnie z Samem Smithem z medConfidential. Smith twierdzi, że AI przeznaczone tylko dla COVID prawdopodobnie zawiera osadzone dane pacjentów, które nie powinny opuszczać laboratorium, a pacjenci powinni mieć kontrolę nad wykorzystaniem ich danych.
Rozważania Etyczne
Rozważania etyczne dotyczące wykorzystania danych medycznych do rozwoju AI stawiają Foresight w niepewnej pozycji. Green argumentuje, że etyka i względy ludzkie powinny być punktem wyjścia dla rozwoju AI, a nie refleksją.
Dogłębna Analiza Obaw
Obawy dotyczące wykorzystania przez Foresight rekordów medycznych NHS wykraczają poza zwykłą prywatność danych. Dotykają one fundamentalnych pytań o własność osobistych informacji zdrowotnych, potencjał algorytmicznego uprzedzenia i długoterminowy wpływ AI na relacje lekarz-pacjent.
Własność i Kontrola Danych Zdrowotnych
Jednym z podstawowych dylematów etycznych jest zakres, w jakim osoby powinny mieć kontrolę nad swoimi danymi zdrowotnymi. Chociaż NHS niewątpliwie wymaga dostępu do informacji o pacjentach, aby zapewnić skuteczną opiekę, wykorzystanie tych danych do szkolenia AI rodzi pytania o to, czy osoby są odpowiednio informowane i upoważnione do wyrażania zgody na takie wtórne zastosowania.
Obecne mechanizmy rezygnacji są niewystarczające, ponieważ nie w pełni uwzględniają złożoność szkolenia AI. Argument, że zdeidentyfikowane dane nie są już danymi osobowymi w ramach GDPR, jest interpretacją prawną, która pomija fakt, że nawet zanonimizowane dane mogą potencjalnie zostać ponownie zidentyfikowane lub wykorzystane do wyciągania wniosków na temat osób.
Bardziej solidne podejście obejmowałoby wdrożenie systemu świadomej zgody, który wyraźnie określa, w jaki sposób dane pacjentów mogą być wykorzystywane do badań i rozwoju AI. Wymagałoby to jasnych i dostępnych wyjaśnień potencjalnych korzyści i ryzyka takiego wykorzystania, a także zapewnienia osobom znaczącej możliwości wyrażenia zgody lub rezygnacji.
Uprzedzenia Algorytmiczne
Kolejnym istotnym problemem jest potencjał algorytmicznego uprzedzenia w modelach AI szkolonych na dużych zbiorach danych. Jeśli dane wykorzystywane do szkolenia Foresight odzwierciedlają istniejące nierówności w zdrowiu, model może utrwalać, a nawet wzmacniać te nierówności.
Na przykład, jeśli niektóre grupy demograficzne są niedostatecznie reprezentowane w zbiorze danych lub jeśli ich stan zdrowia jest błędnie diagnozowany lub niedostatecznie leczony, AI może być mniej dokładna w przewidywaniu chorób lub hospitalizacji dla tych grup. Może to prowadzić do nierównego dostępu do zasobów opieki zdrowotnej i potencjalnie pogłębiać istniejące nierówności w zdrowiu.
Aby złagodzić ryzyko algorytmicznego uprzedzenia, konieczne jest dokładne przeanalizowanie danych wykorzystywanych do szkolenia Foresight oraz zidentyfikowanie i rozwiązanie wszelkich potencjalnych uprzedzeń. Może to obejmować nadmierne próbkowanie niedostatecznie reprezentowanych grup, korygowanie nieścisłości w danych i opracowywanie algorytmów, które są specjalnie zaprojektowane, aby były uczciwe i sprawiedliwe.
Wpływ na Relacje Lekarz-Pacjent
Rosnące wykorzystanie AI w opiece zdrowotnej ma potencjał do zmiany tradycyjnych relacji lekarz-pacjent w głęboki sposób. Chociaż AI może niewątpliwie pomagać lekarzom w podejmowaniu bardziej świadomych decyzji, kluczowe jest, aby zapewnić, że nie zastąpi ona ludzkiego elementu opieki.
Pacjenci muszą mieć pewność, że ich lekarze wykorzystują AI jako narzędzie do wzmocnienia ich osądu klinicznego, a nie jako jego substytut. Relacje lekarz-pacjent powinny pozostać relacjami opartymi na zaufaniu, empatii i wspólnym podejmowaniu decyzji.
Aby chronić relacje lekarz-pacjent, ważne jest podkreślenie znaczenia interakcji międzyludzkich i komunikacji w opiece zdrowotnej. Lekarze powinni być szkoleni w zakresie skutecznego komunikowania roli AI w ich procesie podejmowania decyzji i rozwiązywania wszelkich obaw, jakie mogą mieć pacjenci.
Znalezienie Drogi Naprzód
Poruszanie się po złożonym krajobrazie etycznym i prawnym otaczającym AI w opiece zdrowotnej wymaga wieloaspektowego podejścia.
- Transparentność i Zaangażowanie Publiczne: Otwarcie komunikuj, w jaki sposób wykorzystywane są dane pacjentów i angażuj opinię publiczną w dyskusje na temat etycznych implikacji AI w opiece zdrowotnej.
- Wzmocnienie Ochrony Danych: Wdrożenie bardziej rygorystycznych środków ochrony danych w celu zminimalizowania ryzyka ponownej identyfikacji i zapewnienia, że osoby mają większą kontrolę nad swoimi danymi zdrowotnymi.
- Rozwiązywanie Problemów z Algorytmicznym Uprzedzeniem: Aktywnie identyfikuj i łagodź algorytmiczne uprzedzenia w modelach AI, aby zapewnić sprawiedliwy dostęp do opieki zdrowotnej dla wszystkich.
- Priorytetowe Traktowanie Opieki Skoncentrowanej na Człowieku: Podkreśl znaczenie relacji lekarz-pacjent i upewnij się, że AI jest wykorzystywana jako narzędzie do wzmacniania, a nie zastępowania interakcji międzyludzkich.
Rozwiązując te obawy, możemy wykorzystać transformacyjny potencjał AI w opiece zdrowotnej, jednocześnie chroniąc prywatność pacjentów, promując równość i zachowując ludzki element opieki. Przyszłość opieki zdrowotnej zależy od naszej zdolności do odpowiedzialnego i etycznego pokonywania tych wyzwań. Tylko wtedy możemy zapewnić, że AI naprawdę służy najlepszym interesom pacjentów i społeczeństwa jako całości.