Разработването на Foresight, модел за изкуствен интелект (AI), предизвика значителен дебат поради зависимостта му от огромен набор от данни от 57 милиона медицински досиета от National Health Service (NHS) в Англия. Докато поддръжниците му изтъкват потенциала му да революционизира здравеопазването чрез предсказване на заболявания и прогнозиране на хоспитализации, критиците изразяват сериозни опасения относно поверителността на пациентите и защитата на данните. Тази статия разглежда сложностите на Foresight, като изследва неговите възможности, етичните дилеми, които представя, и предпазните мерки, въведени за смекчаване на потенциалните рискове.
Foresight: AI модел от национален мащаб
Foresight, замислен през 2023 г., първоначално използва GPT-3 на OpenAI, технологията, която е в основата на първата итерация на ChatGPT, и беше обучен на 1,5 милиона пациентски досиета от две лондонски болници. Крис Томлинсън от University College London и неговият екип оттогава разшириха Foresight, определяйки го като първия в света "генеративен AI модел на здравни данни от национален мащаб". Тази подобрена версия използва LLM Llama 2 с отворен код на Meta и включва осем различни набора от данни, рутинно събирани от NHS в Англия от ноември 2018 г. до декември 2023 г. Тези набори от данни обхващат амбулаторни прегледи, хоспитализации, записи за ваксинация и други събития, свързани със здравето, възлизащи на 10 милиарда точки от данни за 57 милиона индивида – по същество цялото население на Англия.
Въпреки липсата на публично достъпни показатели за ефективност поради текущото тестване, Томлинсън твърди, че Foresight в крайна сметка може да улесни индивидуалните диагнози и да предвиди по-широки здравни тенденции, като хоспитализации или сърдечни удари. Той подчерта потенциала на модела да предсказва усложнения от заболявания превантивно, позволявайки ранна намеса и преминаване към превантивно здравеопазване в мащаб по време на пресконференция на 6 май.
Опасения за поверителност и защита на данните
Възможността за подаване на толкова обширни медицински данни в AI модел предизвика опасения относно поверителността. Въпреки че изследователите твърдят, че всички записи са били "анонимизирани" преди обучението на AI, рискът от повторна идентификация чрез анализ на модели на данни остава значителен проблем, особено при големи набори от данни.
Люк Рошер от University of Oxford подчертава присъщото предизвикателство за защита на поверителността на пациентите, докато се изграждат мощни генеративни AI модели. Самото богатство на данните, което прави данните ценни за целите на AI, също така го прави невероятно трудно за анонимизиране. Рошер се застъпва за строг контрол от страна на NHS върху тези модели, за да се гарантира безопасна употреба.
Майкъл Чапман от NHS Digital признава присъщия риск от повторна идентификация, дори с анонимизирани данни. Докато преките идентификатори се премахват, богатството на здравните данни затруднява гарантирането на пълна анонимност.
За да се противодейства на този риск, Чапман заяви, че AI работи в "сигурна" среда за данни на NHS, ограничавайки изтичането на информация и гарантирайки достъп само до одобрени изследователи. Amazon Web Services и Databricks предоставят изчислителна инфраструктура, но нямат достъп до данните.
Ив-Александър дьо Монжоа от Imperial College London предлага да се провери способността на модела да запаметява данни за обучение, за да се открие потенциално изтичане на информация. Когато беше попитан от New Scientist, Томлинсън призна, че екипът на Foresight все още не е провел тези тестове, но планира да го направи в бъдеще.
Обществено доверие и използване на данни
Каролайн Грийн от University of Oxford подчертава важността на комуникирането на използването на данни с обществеността, за да се поддържа доверие. Въпреки усилията за анонимизиране, хората обикновено искат да контролират своите данни и да разбират тяхната дестинация, което ги кара да се чувстват много силно за етиката на това.
Текущите контроли предлагат ограничени възможности за индивидите да се откажат от използването на данни от Foresight. Данни от национално събрани набори от данни на NHS се използват за обучение на модела, а съществуващите механизми за отказ не се прилагат, защото данните са били "анонимизирани", според говорител на NHS England. Въпреки това, индивиди, които са се отказали от споделяне на данни от техния семеен лекар, няма да имат своите данни, включени в модела.
GDPR и анонимизиране на данни
Общият регламент за защита на данните (GDPR) изисква индивидите да имат възможност да оттеглят съгласието си за използването на техните лични данни. Въпреки това, процесът на обучение на LLM като Foresight прави невъзможно премахването на един запис от AI инструмента. Говорителят на NHS England твърди, че GDPR не се прилага, защото данните, използвани за обучение на модела, са анонимизирани и не представляват лични данни.
Уебсайтът на UK Information Commissioner’s Office уточнява, че "анонимизираните" данни не трябва да се използват взаимозаменяемо с анонимните данни, тъй като законът на Обединеното кралство за защита на данните не дефинира термина и използването му може да доведе до объркване.
Правното положение е допълнително усложнено от текущото използване на Foresight за изследвания, свързани с COVID-19, което позволява изключения от законите за защита на данните, приети по време на пандемията, според Сам Смит от medConfidential. Смит твърди, че AI, предназначен само за COVID, вероятно съдържа вградени пациентски данни, които не трябва да напускат лабораторията, и пациентите трябва да имат контрол върху използването на техните данни.
Етични съображения
Етичните съображения около използването на медицински данни за разработка на AI поставят Foresight в несигурно положение. Грийн твърди, че етиката и човешките съображения трябва да бъдат отправна точка за разработването на AI, а не последваща мисъл.
По-задълбочено разглеждане на опасенията
Опасенията около използването на медицински досиета от NHS от Foresight се простират отвъд обикновената поверителност на данните. Те засягат основни въпроси относно собствеността върху личната здравна информация, потенциала за алгоритмични пристрастия и дългосрочното въздействие на AI върху взаимоотношенията лекар-пациент.
Собственост и контрол върху здравните данни
Една от основните етични дилеми е степента, до която индивидите трябва да имат контрол върху собствените си здравни данни. Въпреки че NHS несъмнено изисква достъп до информация за пациентите, за да осигури ефективна грижа, използването на тези данни за обучение на AI повдига въпроси дали индивидите са адекватно информирани и упълномощени да се съгласят с такива вторични употреби.
Съществуващите механизми за отказ са недостатъчни, тъй като те не разглеждат напълно сложността на обучението на AI. Аргументът, че анонимизираните данни вече не са лични данни съгласно GDPR, е правна интерпретация, която пренебрегва реалността, че дори анонимизираните данни могат потенциално да бъдат повторно идентифицирани или използвани за извличане на заключения за индивидите.
По-стабилен подход би включвал прилагането на система за информирано съгласие, която изрично очертава как данните на пациентите могат да бъдат използвани за AI изследвания и разработки. Това би изисквало ясни и достъпни обяснения на потенциалните ползи и рискове от такива употреби, както и предоставяне на индивидите на значима възможност да се включат или откажат.
Алгоритмични пристрастия
Друго значително безпокойство е потенциалът за алгоритмични пристрастия в AI модели, обучени върху големи набори от данни. Ако данните, използвани за обучение на Foresight, отразяват съществуващите здравни различия, моделът може да увековечи и дори да засили тези неравенства.
Например, ако определени демографски групи са недостатъчно представени в набора от данни или ако техните медицински състояния са неправилно диагностицирани или недостатъчно лекувани, AI може да бъде по-малко точен в предсказването на заболявания или хоспитализации за тези групи. Това може да доведе до неравностоен достъп до здравни ресурси и потенциално да влоши съществуващите здравни неравенства.
За да се смекчи рискът от алгоритмични пристрастия, е от съществено значение внимателно да се анализират данните, използвани за обучение на Foresight, и да се идентифицират и отстранят всички потенциални пристрастия. Това може да включва свръхсемплиране на недостатъчно представени групи, коригиране на неточности в данните и разработване на алгоритми, които са специално проектирани да бъдат справедливи и равноправни.
Въздействие върху взаимоотношенията лекар-пациент
Нарастващото използване на AI в здравеопазването има потенциала да промени традиционните взаимоотношения лекар-пациент по дълбок начин. Въпреки че AI несъмнено може да помогне на лекарите при вземането на по-информирани решения, е от решаващо значение да се гарантира, че той не заменя човешкия елемент на грижата.
Пациентите трябва да се чувстват уверени, че техните лекари използват AI като инструмент за подобряване на тяхната клинична преценка, а не като заместител на нея. Взаимоотношенията лекар-пациент трябва да останат такива на доверие, съпричастност и споделено вземане на решения.
За да се запазят взаимоотношенията лекар-пациент, е важно да се подчертае значението на човешкото взаимодействие и комуникация в здравеопазването. Лекарите трябва да бъдат обучени да комуникират ефективно ролята на AI в техния процес на вземане на решения и да отговорят на всички опасения, които пациентите могат да имат.
Намиране на път напред
Навигирането в сложния етичен и правен пейзаж около AI в здравеопазването изисква многостранен подход.
- Прозрачност и обществено участие: Отворено комуникирайте как се използват данните на пациентите и включете обществеността в дискусии относно етичните последици от AI в здравеопазването.
- Укрепване на защитата на данните: Приложете по-строги мерки за защита на данните, за да сведете до минимум риска от повторна идентификация и да гарантирате, че индивидите имат по-голям контрол върху своите здравни данни.
- Справяне с алгоритмичните пристрастия: Активно идентифицирайте и смекчавайте алгоритмичните пристрастия в AI моделите, за да осигурите равноправен достъп до здравеопазване за всички.
- Приоритизиране на ориентирана към човека грижа: Подчертайте значението на взаимоотношенията лекар-пациент и гарантирайте, че AI се използва като инструмент за подобряване, а не за замяна, на човешкото взаимодействие.
Като разгледаме тези опасения, можем да използваме трансформиращия потенциал на AI в здравеопазването, като същевременно защитим поверителността на пациентите, насърчаваме равенството и запазим човешкия елемент на грижата. Бъдещето на здравеопазването зависи от способността ни да навигираме в тези предизвикателства отговорно и етично. Само тогава можем да гарантираме, че AI наистина служи на най-добрите интереси на пациентите и обществото като цяло.