Model AI NHS Picu Kekhawatiran Privasi

Pengembangan Foresight, sebuah model kecerdasan buatan (AI), telah memicu perdebatan yang cukup besar karena ketergantungannya pada dataset besar yang terdiri dari 57 juta catatan medis dari National Health Service (NHS) di Inggris. Sementara para pendukung menggembar-gemborkan potensinya untuk merevolusi perawatan kesehatan melalui prediksi penyakit dan perkiraan rawat inap, para kritikus menyuarakan kekhawatiran serius tentang privasi pasien dan perlindungan data. Artikel ini menggali seluk-beluk Foresight, memeriksa kemampuannya, dilema etika yang ditimbulkannya, dan perlindungan yang ada untuk mengurangi potensi risiko.

Foresight: Model AI Generatif Skala Nasional

Foresight, yang dikonsep pada tahun 2023, awalnya menggunakan GPT-3 OpenAI, teknologi yang mendasari iterasi pertama ChatGPT, dan dilatih pada 1,5 juta catatan pasien dari dua rumah sakit di London. Chris Tomlinson dari University College London dan timnya sejak itu memperluas Foresight, menyebutnya model AI generatif data kesehatan "skala nasional" pertama di dunia. Versi yang disempurnakan ini memanfaatkan LLM sumber terbuka Meta Llama 2 dan menggabungkan delapan dataset berbeda yang secara rutin dikumpulkan oleh NHS di Inggris dari November 2018 hingga Desember 2023. Dataset ini mencakup janji temu rawat jalan, penerimaan rumah sakit, catatan vaksinasi, dan peristiwa terkait kesehatan lainnya, dengan total 10 miliar titik data di 57 juta individu – pada dasarnya seluruh populasi Inggris.

Meskipun tidak ada metrik kinerja yang tersedia untuk umum karena pengujian yang sedang berlangsung, Tomlinson menegaskan bahwa Foresight pada akhirnya dapat memfasilitasi diagnosis individu dan memprediksi tren kesehatan yang lebih luas, seperti rawat inap atau serangan jantung. Dia menekankan potensi model untuk memprediksi komplikasi penyakit secara preemptif, memungkinkan intervensi dini dan pergeseran menuju perawatan kesehatan preventif dalam skala besar selama konferensi pers pada 6 Mei.

Kekhawatiran Privasi dan Perlindungan Data

Prospek memasukkan data medis yang begitu luas ke dalam model AI telah memicu kekhawatiran tentang privasi. Meskipun para peneliti mengklaim bahwa semua catatan "dihapus identitasnya" sebelum melatih AI, risiko identifikasi ulang melalui analisis pola data tetap menjadi perhatian yang signifikan, terutama dengan dataset besar.

Luc Rocher dari Universitas Oxford menyoroti tantangan inheren dalam menjaga privasi pasien saat membangun model AI generatif yang kuat. Kekayaan data itulah yang membuat data berharga untuk tujuan AI juga membuatnya sangat sulit untuk dianonimkan. Rocher menganjurkan kontrol NHS yang ketat atas model-model ini untuk memastikan penggunaan yang aman.

Michael Chapman dari NHS Digital mengakui risiko inheren identifikasi ulang, bahkan dengan data yang dihapus identitasnya. Sementara pengidentifikasi langsung dihapus, kekayaan data kesehatan membuatnya sulit untuk menjamin anonimitas lengkap.

Untuk mengatasi risiko ini, Chapman menyatakan bahwa AI beroperasi dalam lingkungan data NHS yang "aman", membatasi kebocoran informasi dan memastikan akses hanya untuk peneliti yang disetujui. Amazon Web Services dan Databricks menyediakan infrastruktur komputasi tetapi tidak dapat mengakses data.

Yves-Alexandre de Montjoye dari Imperial College London menyarankan untuk memverifikasi kemampuan model untuk menghafal data pelatihan untuk mendeteksi potensi kebocoran informasi. Ketika ditanya oleh New Scientist, Tomlinson mengakui bahwa tim Foresight belum melakukan tes ini tetapi berencana untuk melakukannya di masa depan.

Kepercayaan Publik dan Penggunaan Data

Caroline Green dari Universitas Oxford menekankan pentingnya mengomunikasikan penggunaan data kepada publik untuk menjaga kepercayaan. Terlepas dari upaya anonimisasi, orang umumnya ingin mengontrol data mereka dan memahami tujuannya, yang membuat mereka merasa sangat kuat tentang etika hal itu.

Kontrol saat ini menawarkan opsi terbatas bagi individu untuk memilih keluar dari penggunaan data oleh Foresight. Data dari dataset NHS yang dikumpulkan secara nasional digunakan untuk melatih model, dan mekanisme memilih keluar yang ada tidak berlaku karena data telah "dihapus identitasnya," menurut juru bicara NHS England. Namun, individu yang telah memilih keluar dari berbagi data dari dokter keluarga mereka tidak akan memasukkan data mereka ke dalam model.

GDPR dan Anonymisasi Data

Peraturan Perlindungan Data Umum (GDPR) mengamanatkan bahwa individu memiliki opsi untuk menarik persetujuan atas penggunaan data pribadi mereka. Namun, proses pelatihan LLM seperti Foresight membuatnya tidak mungkin untuk menghapus satu catatan pun dari alat AI. Juru bicara NHS England menegaskan bahwa GDPR tidak berlaku karena data yang digunakan untuk melatih model dianonimkan dan bukan merupakan data pribadi.

Situs web Kantor Komisaris Informasi Inggris mengklarifikasi bahwa data yang "dihapus identitasnya" tidak boleh digunakan secara bergantian dengan data anonim, karena hukum perlindungan data Inggris tidak mendefinisikan istilah tersebut, dan penggunaannya dapat menyebabkan kebingungan.

Posisi hukum semakin rumit oleh penggunaan Foresight saat ini untuk penelitian terkait COVID-19, yang memungkinkan pengecualian terhadap undang-undang perlindungan data yang diberlakukan selama pandemi, menurut Sam Smith dari medConfidential. Smith menegaskan bahwa AI khusus COVID kemungkinan berisi data pasien yang tertanam yang seharusnya tidak meninggalkan lab, dan pasien harus memiliki kendali atas penggunaan data mereka.

Pertimbangan Etika

Pertimbangan etika seputar penggunaan data medis untuk pengembangan AI menempatkan Foresight dalam posisi yang genting. Green berpendapat bahwa etika dan pertimbangan manusia harus menjadi titik awal untuk pengembangan AI, bukan renungan.

Memeriksa Kekhawatiran Lebih Mendalam

Kekhawatiran seputar penggunaan catatan medis NHS oleh Foresight melampaui sekadar privasi data. Mereka menyentuh pertanyaan mendasar tentang kepemilikan informasi kesehatan pribadi, potensi bias algoritmik, dan dampak jangka panjang AI pada hubungan dokter-pasien.

Kepemilikan dan Kontrol Data Kesehatan

Salah satu dilema etika inti adalah sejauh mana individu harus memiliki kendali atas data kesehatan mereka sendiri. Sementara NHS tidak diragukan lagi membutuhkan akses ke informasi pasien untuk memberikan perawatan yang efektif, penggunaan data ini untuk pelatihan AI menimbulkan pertanyaan tentang apakah individu diinformasikan secara memadai tentang dan diberi wewenang untuk menyetujui penggunaan sekunder tersebut.

Mekanisme memilih keluar saat ini tidak memadai, karena mereka tidak sepenuhnya membahas kompleksitas pelatihan AI. Argumen bahwa data yang dihapus identitasnya tidak lagi menjadi data pribadi menurut GDPR adalah interpretasi hukum yang mengabaikan kenyataan bahwa bahkan data anonim pun berpotensi untuk diidentifikasi ulang atau digunakan untuk menarik kesimpulan tentang individu.

Pendekatan yang lebih kuat akan melibatkan penerapan sistem persetujuan berdasarkan informasi yang secara eksplisit menguraikan bagaimana data pasien dapat digunakan untuk penelitian dan pengembangan AI. Ini akan membutuhkan penjelasan yang jelas dan mudah diakses tentang potensi manfaat dan risiko penggunaan tersebut, serta memberi individu kesempatan yang berarti untuk memilih masuk atau memilih keluar.

Bias Algoritmik

Kekhawatiran signifikan lainnya adalah potensi bias algoritmik dalam model AI yang dilatih pada dataset besar. Jika data yang digunakan untuk melatih Foresight mencerminkan disparitas kesehatan yang ada, model tersebut dapat melanggengkan dan bahkan memperkuat ketidaksetaraan ini.

Misalnya, jika kelompok demografis tertentu kurang terwakili dalam dataset atau jika kondisi medis mereka salah didiagnosis atau kurang diobati, AI mungkin kurang akurat dalam memprediksi penyakit atau rawat inap untuk kelompok ini. Ini dapat menyebabkan akses yang tidak setara ke sumber daya perawatan kesehatan dan berpotensi memperburuk ketidakadilan kesehatan yang ada.

Untuk mengurangi risiko bias algoritmik, penting untuk menganalisis secara cermat data yang digunakan untuk melatih Foresight dan untuk mengidentifikasi dan mengatasi potensi bias apa pun. Ini mungkin melibatkan pengambilan sampel berlebihan kelompok yang kurang terwakili, memperbaiki ketidakakuratan dalam data, dan mengembangkan algoritma yang secara khusus dirancang agar adil dan merata.

Dampak pada Hubungan Dokter-Pasien

Peningkatan penggunaan AI dalam perawatan kesehatan memiliki potensi untuk mengubah hubungan dokter-pasien tradisional dengan cara yang mendalam. Sementara AI tidak diragukan lagi dapat membantu dokter dalam membuat keputusan yang lebih tepat, penting untuk memastikan bahwa AI tidak menggantikan elemen manusia dari perawatan.

Pasien perlu merasa yakin bahwa dokter mereka menggunakan AI sebagai alat untuk meningkatkan penilaian klinis mereka, bukan sebagai pengganti. Hubungan dokter-pasien harus tetap menjadi hubungan kepercayaan, empati, dan pengambilan keputusan bersama.

Untuk menjaga hubungan dokter-pasien, penting untuk menekankan pentingnya interaksi dan komunikasi manusia dalam perawatan kesehatan. Dokter harus dilatih untuk mengomunikasikan secara efektif peran AI dalam proses pengambilan keputusan mereka dan untuk mengatasi setiap kekhawatiran yang mungkin dimiliki pasien.

Menemukan Jalan ke Depan

Menavigasi lanskap etika dan hukum yang kompleks seputar AI dalam perawatan kesehatan membutuhkan pendekatan multi-faceted.

  • Transparansi dan Keterlibatan Publik: Secara terbuka mengomunikasikan bagaimana data pasien digunakan dan melibatkan publik dalam diskusi tentang implikasi etika AI dalam perawatan kesehatan.
  • Memperkuat Perlindungan Data: Menerapkan langkah-langkah perlindungan data yang lebih ketat untuk meminimalkan risiko identifikasi ulang dan memastikan bahwa individu memiliki kontrol yang lebih besar atas data kesehatan mereka.
  • Mengatasi Bias Algoritmik: Secara aktif mengidentifikasi dan mengurangi bias algoritmik dalam model AI untuk memastikan akses yang adil ke perawatan kesehatan untuk semua.
  • Memprioritaskan Perawatan yang Berpusat pada Manusia: Menekankan pentingnya hubungan dokter-pasien dan memastikan bahwa AI digunakan sebagai alat untuk meningkatkan, bukan menggantikan, interaksi manusia.

Dengan mengatasi kekhawatiran ini, kita dapat memanfaatkan potensi transformatif AI dalam perawatan kesehatan sambil menjaga privasi pasien, mempromosikan kesetaraan, dan melestarikan elemen manusia dari perawatan. Masa depan perawatan kesehatan bergantung pada kemampuan kita untuk menavigasi tantangan ini secara bertanggung jawab dan etis. Hanya dengan begitu kita dapat memastikan bahwa AI benar-benar melayani kepentingan terbaik pasien dan masyarakat secara keseluruhan.