Lo ngại về DeepSeek AI tại bệnh viện Trung Quốc

Một nhóm các nhà nghiên cứu Trung Quốc đã bày tỏ lo ngại về việc tích hợp nhanh chóng DeepSeek, một mô hình trí tuệ nhân tạo, vào các cơ sở bệnh viện. Phân tích của họ nhấn mạnh những nguy hiểm tiềm tàng đối với an toàn lâm sàng và quyền riêng tư dữ liệu, đặc biệt là do việc sử dụng rộng rãi các mô hình nguồn mở kinh tế của công ty khởi nghiệp.

Đến đầu tháng 3, các mô hình ngôn ngữ lớn (LLMs) của DeepSeek đã được sử dụng tại ít nhất 300 bệnh viện Trung Quốc để chẩn đoán lâm sàng và hỗ trợ quyết định y tế.

Được công bố trên Journal of the American Medical Association (JAMA), bài báo nghiên cứu chỉ ra xu hướng tạo ra các kết quả có vẻ thuyết phục của DeepSeek nhưng lại không chính xác về mặt thực tế. Mặc dù AI có khả năng lý luận mạnh mẽ, điều này có thể tạo ra những rủi ro lâm sàng đáng kể. Wong Tien Yin, người đứng đầu sáng lập Tsinghua Medicine, một bộ phận nghiên cứu tại Đại học Thanh Hoa ở Bắc Kinh, là một thành viên của nhóm nghiên cứu.

Lưu ý thận trọng này trái ngược với sự nhiệt tình thịnh hành đối với DeepSeek ở Trung Quốc. Công ty khởi nghiệp, nổi tiếng với các mô hình V3 và R1 giá cả phải chăng và hiệu suất cao, đã trở thành một biểu tượng cho những tiến bộ AI của Trung Quốc.

Wong và các đồng tác giả của ông nhấn mạnh nguy cơ các chuyên gia chăm sóc sức khỏe có thể trở nên quá phụ thuộc vào hoặc chấp nhận các đầu ra của DeepSeek mà không có đánh giá quan trọng. Điều này có thể dẫn đến sai sót trong chẩn đoán hoặc các kế hoạch điều trị thiên vị. Ngược lại, các bác sĩ lâm sàng vẫn thận trọng sẽ phải đối mặt với gánh nặng bổ sung là xác minh các đầu ra AI trong điều kiện thời gian hạn chế.

Rủi ro bảo mật trong triển khai tại chỗ

Mặc dù các bệnh viện thường chọn triển khai riêng tư, tại chỗ các mô hình DeepSeek để giảm các rủi ro liên quan đến bảo mật và quyền riêng tư, cách tiếp cận này giới thiệu một loạt các phức tạp riêng. Theo các nhà nghiên cứu, nó "chuyển trách nhiệm bảo mật cho từng cơ sở chăm sóc sức khỏe", nhiều cơ sở trong số đó có thể thiếu các biện pháp phòng thủ an ninh mạng cần thiết.

Các nhà nghiên cứu cũng lưu ý rằng sự kết hợp giữa cơ sở hạ tầng chăm sóc ban đầu không đầy đủ và việc sử dụng rộng rãi điện thoại thông minh ở Trung Quốc tạo ra một "cơn bão hoàn hảo" làm trầm trọng thêm những lo ngại về an toàn lâm sàng.

Các nhà nghiên cứu tuyên bố, "Các nhóm dân cư thiệt thòi với nhu cầu y tế phức tạp hiện có quyền truy cập chưa từng có vào các khuyến nghị sức khỏe do AI điều khiển, nhưng thường thiếu sự giám sát lâm sàng cần thiết để triển khai an toàn."

Xem xét kỹ lưỡng LLMs trong môi trường chăm sóc sức khỏe

Bài báo này đóng góp vào các cuộc trò chuyện ngày càng tăng về việc sử dụng LLMs trong môi trường lâm sàng và y tế. Các tổ chức khác ở Trung Quốc cũng bắt đầu xem xét kỹ lưỡng LLMs khi việc áp dụng tăng tốc. Một bài báo khác được công bố vào tháng trước bởi các nhà nghiên cứu tại Đại học Trung Hoa Hồng Kông đã kiểm tra các lỗ hổng an ninh mạng của các tác nhân AI và phát hiện ra rằng những tác nhân được cung cấp bởi các LLMs thường được sử dụng rất dễ bị tấn công khác nhau, với DeepSeek-R1 là dễ bị tấn công nhất.

Trung Quốc đã đẩy nhanh việc áp dụng LLMs trong chăm sóc sức khỏe trong bối cảnh gia tăng các công nghệ AI tổng quát. Tháng trước, Ant Group, một công ty công nghệ tài chính của Trung Quốc, đã giới thiệu gần 100 tác nhân y tế AI trên ứng dụng thanh toán Alipay của mình. Các tác nhân này được hỗ trợ bởi các chuyên gia y tế từ các bệnh viện nổi tiếng của Trung Quốc.

Tairex, một công ty khởi nghiệp được ươm tạo tại Đại học Thanh Hoa, đã bắt đầu thử nghiệm nội bộ một nền tảng bệnh viện ảo vào tháng 11. Nền tảng này có 42 bác sĩ AI bao gồm 21 khoa, bao gồm cấp cứu, hô hấp, nhi khoa và tim mạch. Công ty tiết lộ kế hoạch ra mắt nền tảng cho công chúng vào cuối năm nay.

Đi sâu hơn vào những lo ngại xung quanh AI trong chăm sóc sức khỏe

Việc tích hợp nhanh chóng AI, đặc biệt là các mô hình ngôn ngữ lớn (LLMs) như DeepSeek, vào các cơ sở chăm sóc sức khỏe ở Trung Quốc đã gây ra một cuộc tranh luận giữa những người ủng hộ những lợi ích tiềm năng của nó và những người kêu gọi sự thận trọng. Mặc dù AI mang đến những khả năng thú vị để cải thiện chẩn đoán, điều trị và khả năng tiếp cận dịch vụ chăm sóc, nhưng một số yếu tố đảm bảo một cách tiếp cận có chừng mực hơn. Những lo ngại do các nhà nghiên cứu nêu ra làm nổi bật sự phức tạp và những cạm bẫy tiềm ẩn của việc triển khai AI trong một lĩnh vực quan trọng như vậy.

Một trong những mối quan tâm chính là độ tin cậy của thông tin do AI tạo ra. LLMs được đào tạo trên các tập dữ liệu lớn, nhưng các tập dữ liệu này có thể chứa sự thiên vị, không chính xác hoặc thông tin lỗi thời. Do đó, các mô hình AI đôi khi có thể tạo ra các đầu ra có vẻ правдоподобными, nhưng lại không chính xác. Điều này làm tăng một rủi ro đáng kể trong môi trường y tế, nơi các lỗi chẩn đoán hoặc các khuyến nghị điều trị không chính xác có thể gây ra hậu quả nghiêm trọng cho bệnh nhân.

Rủi ro quá phụ thuộc vào AI

Một mối quan tâm khác là khả năng các chuyên gia chăm sóc sức khỏe trở nên quá phụ thuộc vào AI và mất đi các kỹ năng tư duy phản biện của họ. Nếu các bác sĩ và y tá bắt đầu coi các đầu ra AI là không thể sai lầm, họ có thể không đánh giá đầy đủ tình trạng của bệnh nhân, bỏ qua các chi tiết quan trọng hoặc đặt câu hỏi về các khuyến nghị của AI. Điều này có thể dẫn đến sai sót chẩn đoán, điều trị không phù hợp và suy giảm chất lượng chăm sóc.

Hơn nữa, việc áp dụng rộng rãi AI đặt ra các câu hỏi về đạo đức và xã hội về quyền riêng tư dữ liệu, sự thiên vị thuật toán và khả năng mất việc làm. Bệnh nhân có thể lo ngại về tính bảo mật và bảo mật dữ liệu sức khỏe của họ, đặc biệt nếu nó đang được sử dụng để đào tạo các mô hình AI. Sự thiên vị thuật toán cũng có thể duy trì và làm trầm trọng thêm sự khác biệt về sức khỏe hiện có nếu các mô hình AI được đào tạo trên dữ liệu không phản ánh chính xác sự đa dạng của dân số.

Cân bằng giữa đổi mới và thận trọng

Để giảm thiểu những rủi ro này, điều quan trọng là phải áp dụng một cách tiếp cận thận trọng và có trách nhiệm hơn đối với việc tích hợp AI trong chăm sóc sức khỏe. Điều này bao gồm:

  • Kiểm tra và xác nhận nghiêm ngặt: Trước khi triển khai các mô hình AI trong môi trường lâm sàng, chúng nên được kiểm tra và xác nhận kỹ lưỡng trên các quần thể đa dạng để đảm bảo tính chính xác, độ tin cậy và công bằng của chúng.
  • Giám sát của con người: AI nên được sử dụng như một công cụ để tăng cường, không thay thế, phán đoán của con người. Các chuyên gia chăm sóc sức khỏe nên luôn xem xét và xác minh các đầu ra AI trước khi đưa ra các quyết định lâm sàng.
  • Tính minh bạch và khả năng giải thích: Các mô hình AI nên minh bạch và có thể giải thích được, để các chuyên gia chăm sóc sức khỏe có thể hiểu cách chúng đưa ra các khuyến nghị của mình. Điều này có thể giúp xây dựng lòng tin vào AI và xác định các lỗi hoặc thành kiến tiềm ẩn.
  • Bảo mật và quyền riêng tư dữ liệu: Cần có các biện pháp bảo vệ mạnh mẽ để bảo vệ quyền riêng tư và bảo mật dữ liệu của bệnh nhân. Điều này bao gồm việc lấy sự đồng ý có hiểu biết, thực hiện các biện pháp bảo mật mạnh mẽ và tuân thủ các quy định bảo vệ dữ liệu.
  • Giáo dục và đào tạo: Các chuyên gia chăm sóc sức khỏe nên được đào tạo toàn diện về cách sử dụng AI một cách hiệu quả và có trách nhiệm. Điều này bao gồm việc hiểu các hạn chế của AI, nhận ra các thành kiến tiềm ẩn và đánh giá một cách phản biện các đầu ra AI.

Giải quyết các lỗ hổng an ninh mạng

Các lỗ hổng an ninh mạng của các tác nhân AI, như được nêu bật bởi các nhà nghiên cứu tại Đại học Trung Hoa Hồng Kông, gây ra một mối đe dọa đáng kể đối với tính toàn vẹn và bảo mật của các hệ thống chăm sóc sức khỏe. Nếu các mô hình AI dễ bị tấn công, các tác nhân độc hại có thể thao túng các đầu ra của AI, truy cập dữ liệu bệnh nhân nhạy cảm hoặc phá vỡ các hoạt động chăm sóc sức khỏe.

Để giải quyết những lỗ hổng này, điều cần thiết là thực hiện các biện pháp an ninh mạng mạnh mẽ, chẳng hạn như:

  • Thực hành mã hóa an toàn: Các mô hình AI nên được phát triển bằng cách sử dụng các phương pháp mã hóa an toàn để ngăn chặn các lỗ hổng như SQL injection, cross-site scripting và buffer overflows.
  • Kiểm tra bảo mật thường xuyên: Các hệ thống AI nên được kiểm tra bảo mật thường xuyên để xác định và giải quyết các lỗ hổng tiềm ẩn.
  • Hệ thống phát hiện và ngăn chặn xâm nhập: Hệ thống phát hiện và ngăn chặn xâm nhập nên được triển khai để theo dõi các hệ thống AI để tìm hoạt động độc hại và ngăn chặn truy cập trái phép.
  • Mã hóa dữ liệu: Dữ liệu bệnh nhân nhạy cảm nên được mã hóa cả trong quá trình truyền và khi ở trạng thái nghỉ để bảo vệ nó khỏi truy cập trái phép.
  • Kiểm soát truy cập: Kiểm soát truy cập nghiêm ngặt nên được thực hiện để giới hạn quyền truy cập vào các hệ thống và dữ liệu AI cho những người được ủy quyền.

Cân nhắc về mặt đạo đức

Ngoài những thách thức kỹ thuật, việc tích hợp AI trong chăm sóc sức khỏe đặt ra một số cân nhắc quan trọng về mặt đạo đức. Chúng bao gồm:

  • Sự thiên vị thuật toán: Các mô hình AI có thể duy trì và làm trầm trọng thêm sự khác biệt về sức khỏe hiện có nếu chúng được đào tạo trên dữ liệu không phản ánh chính xác sự đa dạng của dân số. Điều quan trọng là phải đảm bảo rằng các mô hình AI là công bằng và không thiên vị.
  • Quyền riêng tư dữ liệu: Bệnh nhân có thể lo ngại về quyền riêng tư dữ liệu sức khỏe của họ, đặc biệt nếu nó đang được sử dụng để đào tạo các mô hình AI. Điều cần thiết là phải lấy sự đồng ý có hiểu biết và bảo vệ dữ liệu bệnh nhân.
  • Tính minh bạch và khả năng giải thích: Các mô hình AI nên minh bạch và có thể giải thích được, để bệnh nhân có thể hiểu cách chúng đưa ra các khuyến nghị của mình. Điều này có thể giúp xây dựng lòng tin vào AI.
  • Trách nhiệm giải trình: Điều quan trọng là phải thiết lập các dòng trách nhiệm giải trình rõ ràng cho các quyết định được đưa ra bởi các hệ thống AI. Ai chịu trách nhiệm nếu một mô hình AI đưa ra chẩn đoán sai hoặc đề xuất một phương pháp điều trị không phù hợp?

Con đường phía trước

Việc tích hợp AI trong chăm sóc sức khỏe có tiềm năng to lớn để cải thiện dịch vụ chăm sóc bệnh nhân, giảm chi phí và nâng cao hiệu quả của các hệ thống chăm sóc sức khỏe. Tuy nhiên, điều quan trọng là phải tiếp cận sự tích hợp này một cách thận trọng và giải quyết các rủi ro và thách thức tiềm ẩn. Bằng cách áp dụng một phương pháp có trách nhiệm và đạo đức, chúng ta có thể khai thác sức mạnh của AI để chuyển đổi chăm sóc sức khỏe tốt hơn.