ИИ и медданные NHS: опасения о приватности

Разработка Foresight, модели искусственного интеллекта (ИИ), вызвала значительные дебаты из-за ее зависимости от обширного набора данных, включающего 57 миллионов медицинских записей из Национальной службы здравоохранения (NHS) в Англии. Хотя сторонники рекламируют ее потенциал для революции в здравоохранении посредством прогнозирования заболеваний и прогнозирования госпитализаций, критики высказывают серьезные опасения по поводу конфиденциальности пациентов и защиты данных. Эта статья углубляется в тонкости Foresight, изучая ее возможности, этические дилеммы, которые она представляет, и меры защиты, принятые для смягчения потенциальных рисков.

Foresight: Генеративная модель ИИ национального масштаба

Foresight, задуманная в 2023 году, первоначально использовала GPT-3 OpenAI, технологию, лежащую в основе первой итерации ChatGPT, и была обучена на 1,5 миллиона записей пациентов из двух лондонских больниц. Крис Томлинсон из Университетского колледжа Лондона и его команда с тех пор расширили Foresight, назвав его первой в мире "генеративной моделью ИИ данных о здоровье национального масштаба". Эта расширенная версия использует LLM Llama 2 с открытым исходным кодом от Meta и включает восемь различных наборов данных, обычно собираемых NHS в Англии с ноября 2018 года по декабрь 2023 года. Эти наборы данных охватывают амбулаторные приемы, госпитализации, записи о вакцинации и другие события, связанные со здоровьем, в общей сложности 10 миллиардов точек данных по 57 миллионам человек – по сути, все население Англии.

Несмотря на отсутствие общедоступных показателей производительности из-за продолжающихся испытаний, Томлинсон утверждает, что Foresight может в конечном итоге облегчить индивидуальную диагностику и прогнозировать более широкие тенденции в области здравоохранения, такие как госпитализации или сердечные приступы. Он подчеркнул потенциал модели для заблаговременного прогнозирования осложнений заболеваний, что позволит провести раннее вмешательство и переход к профилактическому здравоохранению в масштабе во время пресс-конференции 6 мая.

Опасения по поводу конфиденциальности и защиты данных

Перспектива ввода таких обширных медицинских данных в модель ИИ вызвала опасения по поводу конфиденциальности. Хотя исследователи утверждают, что все записи были "обезличены" перед обучением ИИ, риск повторной идентификации посредством анализа структуры данных остается серьезной проблемой, особенно при работе с большими наборами данных.

Люк Роше из Оксфордского университета подчеркивает неотъемлемую проблему защиты конфиденциальности пациентов при создании мощных генеративных моделей ИИ. Сама насыщенность данных, которая делает данные ценными для целей ИИ, также чрезвычайно затрудняет их анонимизацию. Роше выступает за строгий контроль NHS над этими моделями для обеспечения безопасного использования.

Майкл Чепмен из NHS Digital признает неотъемлемый риск повторной идентификации даже при использовании обезличенных данных. Хотя прямые идентификаторы удалены, насыщенность медицинских данных затрудняет гарантировать полную анонимность.

Чтобы противостоять этому риску, Чепмен заявил, что ИИ работает в "безопасной" среде данных NHS, ограничивая утечку информации и обеспечивая доступ только утвержденным исследователям. Amazon Web Services и Databricks предоставляют вычислительную инфраструктуру, но не могут получить доступ к данным.

Ив-Александр де Монжуа из Имперского колледжа Лондона предлагает проверить способность модели запоминать данные обучения, чтобы выявить потенциальную утечку информации. В ответ на вопрос New Scientist, Томлинсон признал, что команда Foresight еще не проводила эти тесты, но планирует сделать это в будущем.

Доверие общественности и использование данных

Кэролайн Грин из Оксфордского университета подчеркивает важность информирования общественности об использовании данных для поддержания доверия. Несмотря на усилия по анонимизации, люди, как правило, хотят контролировать свои данные и понимать, куда они направляются, что заставляет их очень серьезно относиться к этике этого.

Текущие средства контроля предлагают ограниченные возможности для людей отказаться от использования данных Foresight. Данные из национальных наборов данных NHS используются для обучения модели, и существующие механизмы отказа не применяются, поскольку данные были "обезличены", согласно заявлению представителя NHS England. Однако данные лиц, отказавшихся от обмена данными со своим семейным врачом, не будут включены в модель.

GDPR и анонимизация данных

Общий регламент по защите данных (GDPR) требует, чтобы у людей была возможность отозвать согласие на использование своих персональных данных. Однако процесс обучения LLM, таких как Foresight, делает невозможным удаление одной записи из инструмента ИИ. Представитель NHS England утверждает, что GDPR не применяется, поскольку данные, используемые для обучения модели, являются анонимными и не являются персональными данными.

На веб-сайте Управления комиссара по информации Великобритании поясняется, что "обезличенные" данные не следует использовать как синоним анонимных данных, поскольку закон Великобритании о защите данных не определяет этот термин, и его использование может привести к путанице.

Правовое положение еще более осложняется текущим использованием Foresight для исследований, связанных с COVID-19, что допускает исключения из законов о защите данных, принятых во время пандемии, согласно Сэму Смиту из medConfidential. Смит утверждает, что ИИ, предназначенный только для COVID, вероятно, содержит встроенные данные пациентов, которые не должны покидать лабораторию, и пациенты должны контролировать использование своих данных.

Этические соображения

Этические соображения, связанные с использованием медицинских данных для разработки ИИ, ставят Foresight в непростое положение. Грин утверждает, что этика и соображения, связанные с человеком, должны быть отправной точкой для разработки ИИ, а не запоздалой мыслью.

Более глубокое изучение проблем

Проблемы, связанные с использованием Foresight медицинских записей NHS, выходят за рамки простой конфиденциальности данных. Они затрагивают фундаментальные вопросы о владении личной медицинской информацией, потенциале алгоритмической предвзятости и долгосрочном влиянии ИИ на отношения между врачом и пациентом.

Владение и контроль медицинских данных

Одной из основных этических дилемм является степень, в которой люди должны иметь контроль над своими собственными медицинскими данными. Хотя NHS, несомненно, требует доступа к информации о пациентах для обеспечения эффективного ухода, использование этих данных для обучения ИИ поднимает вопросы о том, в достаточной ли степени люди информированы и имеют ли они право давать согласие на такое вторичное использование.

Существующие механизмы отказа недостаточны, поскольку они не полностью учитывают сложности обучения ИИ. Аргумент о том, что обезличенные данные больше не являются персональными данными в соответствии с GDPR, является юридическим толкованием, которое игнорирует тот факт, что даже анонимизированные данные потенциально могут быть повторно идентифицированы или использованы для получения выводов о людях.

Более надежный подход заключался бы во внедрении системы осознанного согласия, в которой четко излагается, как данные пациентов могут использоваться для исследований и разработок в области ИИ. Это потребует четких и доступных объяснений потенциальных преимуществ и рисков такого использования, а также предоставления людям значимой возможности согласия или отказа.

Алгоритмическая предвзятость

Еще одна серьезная проблема – это потенциал алгоритмической предвзятости в моделях ИИ, обученных на больших наборах данных. Если данные, используемые для обучения Foresight, отражают существующие различия в области здравоохранения, модель может увековечить и даже усилить это неравенство.

Например, если определенные демографические группы недостаточно представлены в наборе данных или если их медицинские состояния неправильно диагностируются или не лечатся, ИИ может быть менее точным в прогнозировании заболеваний или госпитализаций для этих групп. Это может привести к неравному доступу к ресурсам здравоохранения и потенциально усугубить существующее неравенство в области здравоохранения.

Чтобы смягчить риск алгоритмической предвзятости, необходимо тщательно проанализировать данные, используемые для обучения Foresight, и выявить и устранить любые потенциальные предвзятости. Это может включать в себя передискретизацию недостаточно представленных групп, исправление неточностей в данных и разработку алгоритмов, которые специально разработаны для обеспечения справедливости и равноправия.

Влияние на отношения между врачом и пациентом

Расширяющееся использование ИИ в здравоохранении может глубоко изменить традиционные отношения между врачом и пациентом. Хотя ИИ, несомненно, может помочь врачам принимать более обоснованные решения, крайне важно обеспечить, чтобы он не заменял человеческий элемент ухода.

Пациенты должны быть уверены в том, что их врачи используют ИИ в качестве инструмента для улучшения своего клинического суждения, а не в качестве его замены. Отношения между врачом и пациентом должны оставаться отношениями доверия, сочувствия и совместного принятия решений.

Чтобы защитить отношения между врачом и пациентом, важно подчеркнуть важность человеческого взаимодействия и общения в здравоохранении. Врачи должны быть обучены эффективно сообщать о роли ИИ в процессе принятия решений и решать любые проблемы, которые могут возникнуть у пациентов.

Поиск пути вперед

Навигация по сложному этическому и правовому ландшафту, окружающему ИИ в здравоохранении, требует многоаспектного подхода.

  • Прозрачность и вовлечение общественности: Открыто сообщайте, как используются данные пациентов, и вовлекайте общественность в обсуждение этических последствий ИИ в здравоохранении.
  • Усиление защиты данных: Внедрите более строгие меры защиты данных, чтобы минимизировать риск повторной идентификации и обеспечить, чтобы люди имели больший контроль над своими медицинскими данными.
  • Устранение алгоритмической предвзятости: Активно выявляйте и смягчайте алгоритмическую предвзятость в моделях ИИ, чтобы обеспечить равный доступ к здравоохранению для всех.
  • Приоритет человеко-ориентированного ухода: Подчеркните важность отношений между врачом и пациентом и обеспечьте, чтобы ИИ использовался в качестве инструмента для улучшения, а не для замены человеческого взаимодействия.

Решая эти проблемы, мы можем использовать преобразующий потенциал ИИ в здравоохранении, защищая при этом конфиденциальность пациентов, содействуя справедливости и сохраняя человеческий элемент ухода. Будущее здравоохранения зависит от нашей способности решать эти проблемы ответственно и этично. Только тогда мы сможем обеспечить, чтобы ИИ действительно служил наилучшим интересам пациентов и общества в целом.