Model AI NHS Cetuskan Kebimbangan Privasi

Pembangunan Foresight, sebuah model kecerdasan buatan (AI), telah mencetuskan perdebatan yang ketara disebabkan pergantungannya pada set data besar yang terdiri daripada 57 juta rekod perubatan daripada Perkhidmatan Kesihatan Kebangsaan (NHS) di England. Walaupun penyokong memuji potensinya untuk merevolusikan penjagaan kesihatan melalui ramalan penyakit dan ramalan kemasukan ke hospital, pengkritik menyuarakan kebimbangan serius tentang privasi pesakit dan perlindungan data. Artikel ini menyelidiki selok-belok Foresight, memeriksa keupayaannya, dilema etika yang ditimbulkannya, dan perlindungan yang disediakan untuk mengurangkan potensi risiko.

Foresight: Model AI Generatif Skala Nasional

Foresight, yang direka pada tahun 2023, pada mulanya menggunakan GPT-3 OpenAI, teknologi yang mendasari lelaran pertama ChatGPT, dan dilatih pada 1.5 juta rekod pesakit dari dua hospital di London. Chris Tomlinson dari University College London dan pasukannya sejak itu telah mengembangkan Foresight, menamakannya model AI generatif “skala nasional data kesihatan” pertama di dunia. Versi yang dipertingkatkan ini memanfaatkan LLM sumber terbuka Meta Llama 2 dan menggabungkan lapan set data berbeza yang lazimnya dikumpulkan oleh NHS di England dari November 2018 hingga Disember 2023. Set data ini merangkumi temu janji pesakit luar, kemasukan ke hospital, rekod vaksinasi dan acara berkaitan kesihatan lain, berjumlah 10 bilion titik data merentasi 57 juta individu - pada dasarnya keseluruhan populasi England.

Walaupun kekurangan metrik prestasi yang tersedia untuk umum disebabkan oleh ujian yang berterusan, Tomlinson menegaskan bahawa Foresight akhirnya boleh memudahkan diagnosis individu dan meramalkan trend kesihatan yang lebih luas, seperti kemasukan ke hospital atau serangan jantung. Beliau menekankan potensi model untuk meramalkan komplikasi penyakit secara pre-emptif, membolehkan intervensi awal dan peralihan ke arah penjagaan kesihatan pencegahan secara besar-besaran semasa sidang akhbar pada 6 Mei.

Kebimbangan Privasi dan Perlindungan Data

Prospek memasukkan data perubatan yang begitu luas ke dalam model AI telah mencetuskan kebimbangan tentang privasi. Walaupun penyelidik mendakwa bahawa semua rekod telah “dinyahkenal pasti” sebelum melatih AI, risiko pengenalan semula melalui analisis corak data kekal menjadi kebimbangan yang ketara, terutamanya dengan set data yang besar.

Luc Rocher dari Universiti Oxford menekankan cabaran yang wujud dalam melindungi privasi pesakit sambil membina model AI generatif yang berkuasa. Kekayaan data yang menjadikan data itu berharga untuk tujuan AI juga menjadikannya sangat sukar untuk dianonimkan. Rocher menyokong kawalan NHS yang ketat ke atas model ini untuk memastikan penggunaan yang selamat.

Michael Chapman dari NHS Digital mengakui risiko yang wujud dalam pengenalan semula, walaupun dengan data yang dinyahkenal pasti. Walaupun pengecam langsung dialih keluar, kekayaan data kesihatan menjadikannya sukar untuk menjamin kerahsiaan sepenuhnya.

Untuk mengatasi risiko ini, Chapman menyatakan bahawa AI beroperasi dalam persekitaran data NHS yang “selamat”, menyekat kebocoran maklumat dan memastikan akses hanya kepada penyelidik yang diluluskan. Amazon Web Services dan Databricks menyediakan infrastruktur pengkomputeran tetapi tidak boleh mengakses data tersebut.

Yves-Alexandre de Montjoye dari Imperial College London mencadangkan pengesahan keupayaan model untuk menghafal data latihan untuk mengesan potensi kebocoran maklumat. Apabila ditanya oleh New Scientist, Tomlinson mengakui bahawa pasukan Foresight belum menjalankan ujian ini tetapi merancang untuk berbuat demikian pada masa hadapan.

Kepercayaan Awam dan Penggunaan Data

Caroline Green dari Universiti Oxford menekankan kepentingan menyampaikan penggunaan data kepada orang ramai untuk mengekalkan kepercayaan. Walaupun usaha penyahkenalan, orang ramai secara amnya mahu mengawal data mereka dan memahami destinasinya, yang membuatkan mereka berasa sangat kuat tentang etikanya.

Kawalan semasa menawarkan pilihan terhad untuk individu untuk menarik diri daripada penggunaan data oleh Foresight. Data daripada set data NHS yang dikumpul secara nasional digunakan untuk melatih model, dan mekanisme pengecualian sedia ada tidak terpakai kerana data telah “dinyahkenal pasti,” menurut jurucakap NHS England. Walau bagaimanapun, individu yang telah memilih untuk tidak berkongsi data daripada doktor keluarga mereka tidak akan memasukkan data mereka dalam model.

GDPR dan Penyahkenalan Data

Peraturan Perlindungan Data Umum (GDPR) mengamanahkan bahawa individu mempunyai pilihan untuk menarik balik persetujuan untuk penggunaan data peribadi mereka. Walau bagaimanapun, proses latihan LLM seperti Foresight menjadikannya mustahil untuk mengalih keluar rekod tunggal daripada alat AI. Jurucakap NHS England menegaskan bahawa GDPR tidak terpakai kerana data yang digunakan untuk melatih model itu dianonimkan dan tidak membentuk data peribadi.

Laman web Pejabat Pesuruhjaya Maklumat UK menjelaskan bahawa data “dinyahkenal pasti” tidak boleh digunakan secara bergantian dengan data tanpa nama, kerana undang-undang perlindungan data UK tidak mentakrifkan istilah itu, dan penggunaannya boleh membawa kepada kekeliruan.

Kedudukan undang-undang selanjutnya rumit oleh penggunaan Foresight semasa untuk penyelidikan berkaitan COVID-19, yang membenarkan pengecualian kepada undang-undang perlindungan data yang digubal semasa pandemik, menurut Sam Smith dari medConfidential. Smith menegaskan bahawa AI khusus COVID mungkin mengandungi data pesakit terbenam yang tidak sepatutnya meninggalkan makmal, dan pesakit sepatutnya mempunyai kawalan ke atas penggunaan data mereka.

Pertimbangan Etika

Pertimbangan etika yang mengelilingi penggunaan data perubatan untuk pembangunan AI meletakkan Foresight dalam kedudukan yang tidak menentu. Green berhujah bahawa etika dan pertimbangan manusia harus menjadi titik permulaan untuk pembangunan AI, dan bukannya renungan kemudian.

Meneliti Kebimbangan Dengan Lebih Mendalam

Kebimbangan mengenai penggunaan rekod perubatan NHS oleh Foresight melangkaui sekadar privasi data. Ia menyentuh soalan asas tentang pemilikan maklumat kesihatan peribadi, potensi berat sebelah algoritma, dan kesan jangka panjang AI terhadap hubungan doktor-pesakit.

Pemilikan dan Kawalan Data Kesihatan

Salah satu dilema etika teras ialah sejauh mana individu harus mempunyai kawalan ke atas data kesihatan mereka sendiri. Walaupun NHS sudah pasti memerlukan akses kepada maklumat pesakit untuk memberikan penjagaan yang berkesan, penggunaan data ini untuk latihan AI menimbulkan persoalan tentang sama ada individu dimaklumkan secukupnya tentang dan diberi kuasa untuk bersetuju dengan penggunaan sekunder sedemikian.

Mekanisme pengecualian semasa tidak mencukupi, kerana ia tidak menangani sepenuhnya kerumitan latihan AI. Hujah bahawa data yang dinyahkenal pasti tidak lagi menjadi data peribadi di bawah GDPR ialah tafsiran undang-undang yang mengabaikan realiti bahawa walaupun data yang dianonimkan berpotensi untuk dikenal pasti semula atau digunakan untuk membuat kesimpulan tentang individu.

Pendekatan yang lebih mantap akan melibatkan pelaksanaan sistem persetujuan termaklum yang menggariskan secara jelas cara data pesakit boleh digunakan untuk penyelidikan dan pembangunan AI. Ini memerlukan penjelasan yang jelas dan boleh diakses tentang potensi manfaat dan risiko penggunaan sedemikian, serta menyediakan individu dengan peluang yang bermakna untuk memilih masuk atau keluar.

Berat Sebelah Algoritma

Satu lagi kebimbangan yang ketara ialah potensi berat sebelah algoritma dalam model AI yang dilatih pada set data yang besar. Jika data yang digunakan untuk melatih Foresight mencerminkan perbezaan kesihatan sedia ada, model itu mungkin mengekalkan dan juga memperkuatkan ketaksamaan ini.

Contohnya, jika kumpulan demografi tertentu kurang diwakili dalam set data atau jika keadaan perubatan mereka salah didiagnosis atau kurang dirawat, AI mungkin kurang tepat dalam meramalkan penyakit atau kemasukan ke hospital untuk kumpulan ini. Ini boleh membawa kepada akses yang tidak sama rata kepada sumber penjagaan kesihatan dan berpotensi memburukkan lagi ketaksamaan kesihatan yang sedia ada.

Untuk mengurangkan risiko berat sebelah algoritma, adalah penting untuk menganalisis dengan teliti data yang digunakan untuk melatih Foresight dan untuk mengenal pasti dan menangani sebarang potensi berat sebelah. Ini mungkin melibatkan pensampelan berlebihan kumpulan yang kurang diwakili, membetulkan ketidaktepatan dalam data, dan membangunkan algoritma yang direka khusus untuk menjadi adil dan saksama.

Kesan ke atas Hubungan Doktor-Pesakit

Penggunaan AI yang semakin meningkat dalam penjagaan kesihatan berpotensi mengubah hubungan doktor-pesakit tradisional dengan cara yang mendalam. Walaupun AI sudah pasti boleh membantu doktor dalam membuat keputusan yang lebih termaklum, adalah penting untuk memastikan bahawa ia tidak menggantikan unsur manusia dalam penjagaan.

Pesakit perlu berasa yakin bahawa doktor mereka menggunakan AI sebagai alat untuk meningkatkan pertimbangan klinikal mereka, bukan sebagai pengganti untuknya. Hubungan doktor-pesakit harus kekal sebagai hubungan kepercayaan, empati dan membuat keputusan bersama.

Untuk melindungi hubungan doktor-pesakit, adalah penting untuk menekankan kepentingan interaksi dan komunikasi manusia dalam penjagaan kesihatan. Doktor harus dilatih untuk menyampaikan secara berkesan peranan AI dalam proses membuat keputusan mereka dan untuk menangani sebarang kebimbangan yang mungkin ada pada pesakit.

Mencari Jalan Ke Hadapan

Menavigasi landskap etika dan undang-undang yang kompleks di sekeliling AI dalam penjagaan kesihatan memerlukan pendekatan pelbagai aspek.

  • Ketelusan dan Penglibatan Awam: Sampaikan secara terbuka cara data pesakit digunakan dan libatkan orang ramai dalam perbincangan tentang implikasi etika AI dalam penjagaan kesihatan.
  • Memperkukuh Perlindungan Data: Laksanakan langkah perlindungan data yang lebih ketat untuk meminimumkan risiko pengenalan semula dan memastikan individu mempunyai kawalan yang lebih besar ke atas data kesihatan mereka.
  • Menangani Berat Sebelah Algoritma: Kenal pasti dan kurangkan secara aktif berat sebelah algoritma dalam model AI untuk memastikan akses yang saksama kepada penjagaan kesihatan untuk semua.
  • Mengutamakan Penjagaan Berpusatkan Manusia: Tekankan kepentingan hubungan doktor-pesakit dan pastikan bahawa AI digunakan sebagai alat untuk meningkatkan, bukan menggantikan, interaksi manusia.

Dengan menangani kebimbangan ini, kita boleh memanfaatkan potensi transformatif AI dalam penjagaan kesihatan sambil melindungi privasi pesakit, menggalakkan ekuiti dan memelihara unsur manusia dalam penjagaan. Masa depan penjagaan kesihatan bergantung pada keupayaan kita untuk menavigasi cabaran ini secara bertanggungjawab dan beretika. Hanya dengan itu kita boleh memastikan bahawa AI benar-benar berkhidmat untuk kepentingan terbaik pesakit dan masyarakat secara keseluruhan.