Mô Hình AI Dùng Hồ Sơ NHS: Lo Ngại Quyền Riêng Tư

Foresight: Mô Hình AI Tạo Sinh Quy Mô Quốc Gia

Foresight, được hình thành vào năm 2023, ban đầu sử dụng GPT-3 của OpenAI, công nghệ nền tảng của phiên bản đầu tiên của ChatGPT, và được đào tạo trên 1,5 triệu hồ sơ bệnh nhân từ hai bệnh viện ở London. Chris Tomlinson của University College London và nhóm của ông đã mở rộng Foresight, gọi nó là “mô hình AI tạo sinh dữ liệu sức khỏe quy mô quốc gia” đầu tiên trên thế giới. Phiên bản nâng cao này tận dụng LLM mã nguồn mở Llama 2 của Meta và kết hợp tám tập dữ liệu riêng biệt thường xuyên được NHS ở Anh thu thập từ tháng 11 năm 2018 đến tháng 12 năm 2023. Các tập dữ liệu này bao gồm các cuộc hẹn ngoại trú, nhập viện, hồ sơ tiêm chủng và các sự kiện liên quan đến sức khỏe khác, tổng cộng 10 tỷ điểm dữ liệu trên 57 triệu cá nhân - về cơ bản là toàn bộ dân số nước Anh.

Mặc dù thiếu các số liệu hiệu suất có sẵn công khai do thử nghiệm đang diễn ra, Tomlinson khẳng định rằng Foresight cuối cùng có thể tạo điều kiện thuận lợi cho việc chẩn đoán cá nhân và dự đoán các xu hướng sức khỏe rộng hơn, chẳng hạn như nhập viện hoặc đau tim. Ông nhấn mạnh tiềm năng của mô hình trong việc dự đoán các biến chứng bệnh một cách chủ động, cho phép can thiệp sớm và chuyển đổi sang chăm sóc sức khỏe phòng ngừa ở quy mô lớn trong một cuộc họp báo vào ngày 6 tháng 5.

Lo Ngại Về Quyền Riêng Tư và Bảo Vệ Dữ Liệu

Việc đưa dữ liệu y tế rộng lớn như vậy vào một mô hình AI đã làm dấy lên những lo ngại về quyền riêng tư. Mặc dù các nhà nghiên cứu tuyên bố rằng tất cả các hồ sơ đã được “khử nhận dạng” trước khi đào tạo AI, nhưng nguy cơ tái nhận dạng thông qua phân tích mẫu dữ liệu vẫn là một mối quan tâm đáng kể, đặc biệt là với các tập dữ liệu lớn.

Luc Rocher của Đại học Oxford nhấn mạnh thách thức vốn có của việc bảo vệ quyền riêng tư của bệnh nhân trong khi xây dựng các mô hình AI tạo sinh mạnh mẽ. Sự phong phú của dữ liệu làm cho dữ liệu có giá trị cho mục đích AI cũng khiến việc ẩn danh trở nên vô cùng khó khăn. Rocher ủng hộ việc NHS kiểm soát chặt chẽ các mô hình này để đảm bảo sử dụng an toàn.

Michael Chapman của NHS Digital thừa nhận nguy cơ tái nhận dạng vốn có, ngay cả với dữ liệu đã được khử nhận dạng. Mặc dù các định danh trực tiếp bị loại bỏ, nhưng sự phong phú của dữ liệu sức khỏe khiến việc đảm bảo ẩn danh hoàn toàn trở nên khó khăn.

Để chống lại rủi ro này, Chapman tuyên bố rằng AI hoạt động trong một môi trường dữ liệu NHS “an toàn”, hạn chế rò rỉ thông tin và đảm bảo quyền truy cập chỉ dành cho các nhà nghiên cứu được phê duyệt. Amazon Web Services và Databricks cung cấp cơ sở hạ tầng điện toán nhưng không thể truy cập dữ liệu.

Yves-Alexandre de Montjoye của Imperial College London đề xuất xác minh khả năng ghi nhớ dữ liệu đào tạo của mô hình để phát hiện rò rỉ thông tin tiềm ẩn. Khi được New Scientist hỏi, Tomlinson thừa nhận rằng nhóm Foresight vẫn chưa tiến hành các thử nghiệm này nhưng dự định sẽ thực hiện trong tương lai.

Niềm Tin Của Công Chúng và Sử Dụng Dữ Liệu

Caroline Green của Đại học Oxford nhấn mạnh tầm quan trọng của việc truyền đạt việc sử dụng dữ liệu cho công chúng để duy trì lòng tin. Mặc dù đã nỗ lực ẩn danh, mọi người thường muốn kiểm soát dữ liệu của họ và hiểu điểm đến của nó, điều này khiến họ cảm thấy rất mạnh mẽ về đạo đức của nó.

Các biện pháp kiểm soát hiện tại cung cấp các tùy chọn hạn chế cho các cá nhân để từ chối sử dụng dữ liệu bởi Foresight. Dữ liệu từ các tập dữ liệu NHS được thu thập trên toàn quốc được sử dụng để đào tạo mô hình và các cơ chế từ chối hiện có không áp dụng vì dữ liệu đã được “khử nhận dạng”, theo một người phát ngôn của NHS England. Tuy nhiên, những cá nhân đã chọn không chia sẻ dữ liệu từ bác sĩ gia đình của họ sẽ không có dữ liệu của họ được đưa vào mô hình.

GDPR và Ẩn Danh Dữ Liệu

Quy định bảo vệ dữ liệu chung (GDPR) quy định rằng các cá nhân có quyền rút lại sự đồng ý cho việc sử dụng dữ liệu cá nhân của họ. Tuy nhiên, quá trình đào tạo LLM như Foresight khiến việc xóa một bản ghi duy nhất khỏi công cụ AI là không thể. Người phát ngôn của NHS England khẳng định rằng GDPR không áp dụng vì dữ liệu được sử dụng để đào tạo mô hình được ẩn danh và không cấu thành dữ liệu cá nhân.

Trang web của Văn phòng Ủy viên Thông tin Vương quốc Anh làm rõ rằng dữ liệu “khử nhận dạng” không nên được sử dụng thay thế cho dữ liệu ẩn danh, vì luật bảo vệ dữ liệu của Vương quốc Anh không định nghĩa thuật ngữ này và việc sử dụng nó có thể dẫn đến nhầm lẫn.

Vị trí pháp lý trở nên phức tạp hơn do việc Foresight hiện đang được sử dụng cho nghiên cứu liên quan đến COVID-19, cho phép các ngoại lệ đối với luật bảo vệ dữ liệu được ban hành trong đại dịch, theo Sam Smith của medConfidential. Smith khẳng định rằng AI chỉ dành cho COVID có khả năng chứa dữ liệu bệnh nhân được nhúng mà không được rời khỏi phòng thí nghiệm và bệnh nhân nên có quyền kiểm soát việc sử dụng dữ liệu của họ.

Cân Nhắc Đạo Đức

Những cân nhắc về đạo đức xung quanh việc sử dụng dữ liệu y tế cho phát triển AI đặt Foresight vào một vị trí bấp bênh. Green cho rằng đạo đức và cân nhắc về con người nên là điểm khởi đầu cho phát triển AI, thay vì một suy nghĩ muộn màng.

Xem Xét Sâu Hơn Những Lo Ngại

Những lo ngại xung quanh việc Foresight sử dụng hồ sơ y tế của NHS vượt ra ngoài quyền riêng tư dữ liệu đơn thuần. Chúng chạm đến những câu hỏi cơ bản về quyền sở hữu thông tin sức khỏe cá nhân, tiềm năng thiên vị thuật toán và tác động lâu dài của AI đến mối quan hệ bác sĩ-bệnh nhân.

Quyền Sở Hữu và Kiểm Soát Dữ Liệu Sức Khỏe

Một trong những tình huống khó xử về đạo đức cốt lõi là mức độ mà các cá nhân nên kiểm soát dữ liệu sức khỏe của chính họ. Mặc dù NHS chắc chắn cần quyền truy cập vào thông tin bệnh nhân để cung cấp dịch vụ chăm sóc hiệu quả, nhưng việc sử dụng dữ liệu này cho đào tạo AI đặt ra câu hỏi liệu các cá nhân có được thông báo đầy đủ về và trao quyền để đồng ý với việc sử dụng thứ cấp như vậy hay không.

Các cơ chế từ chối hiện tại là không đủ, vì chúng không giải quyết đầy đủ sự phức tạp của đào tạo AI. Lập luận rằng dữ liệu đã được khử nhận dạng không còn là dữ liệu cá nhân theo GDPR là một cách giải thích pháp lý bỏ qua thực tế rằng ngay cả dữ liệu ẩn danh cũng có thể được tái nhận dạng hoặc sử dụng để suy luận về các cá nhân.

Một cách tiếp cận mạnh mẽ hơn sẽ liên quan đến việc thực hiện một hệ thống đồng ý có hiểu biết phác thảo rõ ràng cách dữ liệu bệnh nhân có thể được sử dụng cho nghiên cứu và phát triển AI. Điều này sẽ yêu cầu giải thích rõ ràng và dễ tiếp cận về những lợi ích và rủi ro tiềm ẩn của việc sử dụng đó, cũng như cung cấp cho các cá nhân cơ hội có ý nghĩa để chọn tham gia hoặc chọn không tham gia.

Thiên Vị Thuật Toán

Một mối quan tâm đáng kể khác là tiềm năng thiên vị thuật toán trong các mô hình AI được đào tạo trên các tập dữ liệu lớn. Nếu dữ liệu được sử dụng để đào tạo Foresight phản ánh sự khác biệt về sức khỏe hiện có, mô hình có thể duy trì và thậm chí khuếch đại những bất bình đẳng này.

Ví dụ: nếu một số nhóm nhân khẩu học không được đại diện đầy đủ trong tập dữ liệu hoặc nếu tình trạng bệnh của họ bị chẩn đoán sai hoặc điều trị không đầy đủ, AI có thể kém chính xác hơn trong việc dự đoán bệnh tật hoặc nhập viện cho các nhóm này. Điều này có thể dẫn đến việc tiếp cận không bình đẳng với các nguồn lực chăm sóc sức khỏe và có khả năng làm trầm trọng thêm những bất bình đẳng về sức khỏe hiện có.

Để giảm thiểu rủi ro thiên vị thuật toán, điều cần thiết là phải phân tích cẩn thận dữ liệu được sử dụng để đào tạo Foresight và xác định và giải quyết mọi thiên vị tiềm ẩn. Điều này có thể liên quan đến việc lấy mẫu quá mức các nhóm không được đại diện, sửa chữa những điểm không chính xác trong dữ liệu và phát triển các thuật toán được thiết kế đặc biệt để công bằng và công bằng.

Tác Động Đến Mối Quan Hệ Bác Sĩ-Bệnh Nhân

Việc sử dụng ngày càng tăng AI trong chăm sóc sức khỏe có khả năng thay đổi mối quan hệ bác sĩ-bệnh nhân truyền thống theo những cách sâu sắc. Mặc dù AI chắc chắn có thể hỗ trợ các bác sĩ đưa ra quyết định sáng suốt hơn, nhưng điều quan trọng là phải đảm bảo rằng nó không thay thế yếu tố con người của việc chăm sóc.

Bệnh nhân cần cảm thấy tự tin rằng bác sĩ của họ đang sử dụng AI như một công cụ để nâng cao phán đoán lâm sàng của họ, chứ không phải là một sự thay thế cho nó. Mối quan hệ bác sĩ-bệnh nhân phải duy trì là một mối quan hệ tin cậy, đồng cảm và ra quyết định chung.

Để bảo vệ mối quan hệ bác sĩ-bệnh nhân, điều quan trọng là phải nhấn mạnh tầm quan trọng của sự tương tác và giao tiếp giữa con người với nhau trong chăm sóc sức khỏe. Các bác sĩ nên được đào tạo để giao tiếp hiệu quả vai trò của AI trong quá trình ra quyết định của họ và giải quyết mọi lo ngại mà bệnh nhân có thể có.

Tìm Đường Tiến Lên

Điều hướng bối cảnh đạo đức và pháp lý phức tạp xung quanh AI trong chăm sóc sức khỏe đòi hỏi một cách tiếp cận nhiều mặt.

  • Minh Bạch và Sự Tham Gia Của Công Chúng: Truyền đạt công khai cách dữ liệu bệnh nhân được sử dụng và thu hút công chúng vào các cuộc thảo luận về ý nghĩa đạo đức của AI trong chăm sóc sức khỏe.
  • Tăng Cường Bảo Vệ Dữ Liệu: Thực hiện các biện pháp bảo vệ dữ liệu nghiêm ngặt hơn để giảm thiểu rủi ro tái nhận dạng và đảm bảo rằng các cá nhân có quyền kiểm soát lớn hơn đối với dữ liệu sức khỏe của họ.
  • Giải Quyết Thiên Vị Thuật Toán: Tích cực xác định và giảm thiểu thiên vị thuật toán trong các mô hình AI để đảm bảo tiếp cận công bằng với dịch vụ chăm sóc sức khỏe cho tất cả mọi người.
  • Ưu Tiên Chăm Sóc Lấy Con Người Làm Trung Tâm: Nhấn mạnh tầm quan trọng của mối quan hệ bác sĩ-bệnh nhân và đảm bảo rằng AI được sử dụng như một công cụ để nâng cao, chứ không phải thay thế, sự tương tác giữa con người với nhau.

Bằng cách giải quyết những lo ngại này, chúng ta có thể khai thác tiềm năng biến đổi của AI trong chăm sóc sức khỏe đồng thời bảo vệ quyền riêng tư của bệnh nhân, thúc đẩy công bằng và bảo tồn yếu tố con người của việc chăm sóc. Tương lai của chăm sóc sức khỏe phụ thuộc vào khả năng điều hướng những thách thức này một cách có trách nhiệm và đạo đức. Chỉ khi đó chúng ta mới có thể đảm bảo rằng AI thực sự phục vụ lợi ích tốt nhất của bệnh nhân và xã hội nói chung.