Foresight: Ulusal Ölçekte Üretken Bir AI Modeli
Foresight, 2023 yılında ortaya çıkmış olup, başlangıçta OpenAI’nin GPT-3’ünü, ChatGPT’nin ilk sürümünü destekleyen teknolojiyi kullanmıştır ve iki Londra hastanesinden 1,5 milyon hasta kaydı üzerinde eğitilmiştir. University College London’dan Chris Tomlinson ve ekibi, o zamandan beri Foresight’ı genişleterek, onu dünyanın ilk "ulusal ölçekte üretken sağlık verisi AI modeli" olarak markalaştırmıştır. Bu geliştirilmiş sürüm, Meta’nın açık kaynaklı LLM Llama 2’sini kullanır ve Kasım 2018’den Aralık 2023’e kadar NHS tarafından İngiltere’de rutin olarak toplanan sekiz farklı veri kümesini içerir. Bu veri kümeleri, ayakta tedavi randevularını, hastane kabullerini, aşılama kayıtlarını ve diğer sağlıkla ilgili olayları kapsar ve toplamda 57 milyon bireyden (esasen İngiltere’nin tüm nüfusu) 10 milyar veri noktasına ulaşır.
Devam eden testler nedeniyle kamuya açık performans metriklerinin eksikliğine rağmen, Tomlinson, Foresight’ın nihayetinde bireysel teşhisleri kolaylaştırabileceğini ve hastaneye yatışlar veya kalp krizi gibi daha geniş sağlık eğilimlerini tahmin edebileceğini iddia ediyor. 6 Mayıs’ta düzenlenen bir basın toplantısında, modelin hastalık komplikasyonlarını önceden tahmin etme potansiyelini vurgulayarak, erken müdahaleyi ve ölçekte önleyici sağlık hizmetlerine doğru bir geçişi mümkün kılacağını belirtti.
Gizlilik ve Veri Koruma Endişeleri
Bu kadar kapsamlı tıbbi verilerin bir AI modeline beslenmesi ihtimali, gizlilik konusunda endişeleri tetiklemiştir. Araştırmacılar, AI’yı eğitmeden önce tüm kayıtların "anonimleştirildiğini" iddia etseler de, özellikle büyük veri kümeleriyle, veri örüntüsü analizi yoluyla yeniden tanımlama riski önemli bir endişe kaynağı olmaya devam etmektedir.
Oxford Üniversitesi’nden Luc Rocher, güçlü üretken AI modelleri oluştururken hasta gizliliğini korumanın doğasında var olan zorluğun altını çiziyor. Veriyi AI amaçları için değerli kılan veri zenginliği, aynı zamanda anonimleştirmeyi inanılmaz derecede zorlaştırıyor. Rocher, güvenli kullanımı sağlamak için bu modeller üzerinde sıkı NHS kontrolünü savunuyor.
NHS Digital’den Michael Chapman, anonimleştirilmiş verilerde bile yeniden tanımlama riskinin doğasında varolduğunu kabul ediyor. Doğrudan tanımlayıcılar kaldırılırken, sağlık verilerinin zenginliği tam anonimliği garanti etmeyi zorlaştırıyor.
Bu riski bertaraf etmek için Chapman, AI’nın "güvenli" bir NHS veri ortamında çalıştığını, bilgi sızıntısını kısıtladığını ve yalnızca onaylı araştırmacılara erişim sağladığını belirtti. Amazon Web Services ve Databricks, hesaplama altyapısı sağlıyor ancak verilere erişemiyor.
Imperial College London’dan Yves-Alexandre de Montjoye, potansiyel bilgi sızıntısını tespit etmek için bir modelin eğitim verilerini ezberleme yeteneğini doğrulamanızı öneriyor. New Scientist tarafından sorgulandığında, Tomlinson, Foresight ekibinin henüz bu testleri yapmadığını ancak gelecekte yapmayı planladığını kabul etti.
Kamuoyu Güveni ve Veri Kullanımı
Oxford Üniversitesi’nden Caroline Green, güveni korumak için veri kullanımını kamuoyu ile paylaşmanın önemini vurguluyor. Anonimleştirme çabalarına rağmen, insanlar genellikle verilerini kontrol etmek ve varış noktasını anlamak istiyorlar, bu da etik konusunda çok güçlü hissetmelerini sağlıyor.
Mevcut kontroller, bireylerin Foresight tarafından veri kullanımından vazgeçmeleri için sınırlı seçenekler sunuyor. Ulusal olarak toplanan NHS veri kümelerinden elde edilen veriler, modeli eğitmek için kullanılıyor ve mevcut vazgeçme mekanizmaları, NHS England sözcüsüne göre veriler "anonimleştirildiği" için geçerli değil. Bununla birlikte, aile doktorlarından veri paylaşımından vazgeçen bireylerin verileri modele dahil edilmeyecektir.
GDPR ve Veri Anonimleştirme
Genel Veri Koruma Yönetmeliği (GDPR), bireylerin kişisel verilerinin kullanımı için onaylarını geri çekme seçeneğine sahip olmalarını zorunlu kılmaktadır. Ancak, Foresight gibi LLM’lerin eğitim süreci, tek bir kaydı AI aracından kaldırmayı imkansız hale getiriyor. NHS England sözcüsü, modeli eğitmek için kullanılan verilerin anonimleştirildiğini ve kişisel veri teşkil etmediğini iddia ederek GDPR’nin geçerli olmadığını belirtiyor.
Birleşik Krallık Bilgi Komiserliği Ofisi’nin web sitesi, Birleşik Krallık veri koruma yasası terimi tanımlamadığı ve kullanımı kafa karışıklığına yol açabileceğinden, "anonimleştirilmiş" verilerin anonim verilerle birbirinin yerine kullanılmaması gerektiğini açıklıyor.
MedConfidential’dan Sam Smith’e göre, yasal durum, Foresight’ın mevcut COVID-19 ile ilgili araştırmalar için kullanımıyla daha da karmaşıklaşıyor ve bu da pandemi sırasında yürürlüğe konulan veri koruma yasalarına istisnalar tanıyor. Smith, COVID’e özgü AI’nın büyük olasılıkla laboratuvardan ayrılmaması gereken gömülü hasta verileri içerdiğini ve hastaların veri kullanımları üzerinde kontrole sahip olması gerektiğini iddia ediyor.
Etik Hususlar
Tıbbi verilerin AI geliştirme için kullanımını çevreleyen etik hususlar, Foresight’ı tehlikeli bir konuma yerleştiriyor. Green, AI geliştirme için başlangıç noktasının sonradan düşünmek yerine etik ve insani hususlar olması gerektiğini savunuyor.
Endişeleri Daha Derinlemesine İncelemek
Foresight’ın NHS tıbbi kayıtlarını kullanımını çevreleyen endişeler, salt veri gizliliğinin ötesine geçiyor. Kişisel sağlık bilgilerinin sahipliği, algoritmik önyargı potansiyeli ve AI’nın doktor-hasta ilişkisi üzerindeki uzun vadeli etkisi hakkında temel sorulara değiniyorlar.
Sağlık Verilerinin Sahipliği ve Kontrolü
Temel etik ikilemlerden biri, bireylerin kendi sağlık verileri üzerinde ne ölçüde kontrole sahip olması gerektiğidir. NHS’nin etkili bakım sağlamak için şüphesiz hasta bilgilerine erişmesi gerekirken, bu verilerin AI eğitimi için kullanımı, bireylerin bu tür ikincil kullanımlar hakkında yeterince bilgilendirilip bilgilendirilmediği ve onay verme yetkisine sahip olup olmadığı sorularını gündeme getiriyor.
Mevcut vazgeçme mekanizmaları yetersizdir, çünkü AI eğitiminin karmaşıklıklarını tam olarak ele almamaktadırlar. Anonimleştirilmiş verilerin GDPR kapsamında artık kişisel veri olmadığı argümanı, anonimleştirilmiş verilerin bile potansiyel olarak yeniden tanımlanabileceği veya bireyler hakkında çıkarımlar yapmak için kullanılabileceği gerçeğini göz ardı eden yasal bir yorumdur.
Daha sağlam bir yaklaşım, hasta verilerinin AI araştırma ve geliştirme için nasıl kullanılabileceğini açıkça ortaya koyan bir bilgilendirilmiş onay sistemi uygulamayı içerecektir. Bu, bu tür kullanımların potansiyel faydalarının ve risklerinin açık ve erişilebilir açıklamalarını gerektirecek ve bireylere katılma veya vazgeçme için anlamlı bir fırsat sağlayacaktır.
Algoritmik Önyargı
Bir diğer önemli endişe ise, büyük veri kümeleri üzerinde eğitilmiş AI modellerinde algoritmik önyargı potansiyelidir. Foresight’ı eğitmek için kullanılan veriler mevcut sağlık eşitsizliklerini yansıtıyorsa, model bu eşitsizlikleri sürdürebilir ve hatta artırabilir.
Örneğin, belirli demografik gruplar veri kümesinde yetersiz temsil ediliyorsa veya tıbbi durumları yanlış teşhis edilirse veya yetersiz tedavi edilirse, AI bu gruplar için hastalık veya hastaneye yatışları tahmin etmede daha az doğru olabilir. Bu, sağlık kaynaklarına eşit olmayan erişime yol açabilir ve potansiyel olarak mevcut sağlık eşitsizliklerini daha da kötüleştirebilir.
Algoritmik önyargı riskini azaltmak için, Foresight’ı eğitmek için kullanılan verileri dikkatlice analiz etmek ve potansiyel önyargıları belirlemek ve ele almak esastır. Bu, yetersiz temsil edilen grupların aşırı örneklenmesini, verilerdeki yanlışlıkların düzeltilmesini ve özellikle adil ve eşit olacak şekilde tasarlanmış algoritmaların geliştirilmesini içerebilir.
Doktor-Hasta İlişkisi Üzerindeki Etki
Sağlık hizmetlerinde AI’nın artan kullanımı, geleneksel doktor-hasta ilişkisini derin şekillerde değiştirme potansiyeline sahiptir. AI şüphesiz doktorların daha bilinçli kararlar vermesine yardımcı olabilirken, insan unsurunun bakımın yerini almadığından emin olmak çok önemlidir.
Hastaların, doktorlarının AI’yı klinik yargılarını geliştirmek için bir araç olarak kullandıklarına, bunun yerine bir ikame olarak kullanmadıklarına güvenmeleri gerekir. Doktor-hasta ilişkisi, güven, empati ve ortak karar verme ilişkisi olarak kalmalıdır.
Doktor-hasta ilişkisini korumak için, sağlık hizmetlerinde insan etkileşiminin ve iletişiminin önemini vurgulamak önemlidir. Doktorlar, AI’nın karar verme süreçlerindeki rolünü etkili bir şekilde iletmek ve hastaların sahip olabileceği endişeleri ele almak için eğitilmelidir.
İleriye Doğru Bir Yol Bulmak
Sağlık hizmetlerinde AI’yı çevreleyen karmaşık etik ve yasal ortamda gezinmek, çok yönlü bir yaklaşım gerektirir.
- Şeffaflık ve Halkın Katılımı: Hasta verilerinin nasıl kullanıldığını açıkça iletin ve sağlık hizmetlerinde AI’nın etik sonuçları hakkında kamuoyunu tartışmalara dahil edin.
- Veri Korumasını Güçlendirmek: Yeniden tanımlama riskini en aza indirmek ve bireylerin sağlık verileri üzerinde daha fazla kontrole sahip olmasını sağlamak için daha sıkı veri koruma önlemleri uygulayın.
- Algoritmik Önyargıyı Ele Almak: Herkes için eşit sağlık hizmetlerine erişimi sağlamak için AI modellerinde algoritmik önyargıyı aktif olarak belirleyin ve azaltın.
- İnsan Odaklı Bakıma Öncelik Vermek: Doktor-hasta ilişkisinin önemini vurgulayın ve AI’nın insan etkileşimini değiştirmek yerine geliştirmek için bir araç olarak kullanılmasını sağlayın.
Bu endişeleri ele alarak, hasta gizliliğini korurken, eşitliği teşvik ederken ve bakımın insan unsurunu korurken sağlık hizmetlerinde AI’nın dönüştürücü potansiyelinden yararlanabiliriz. Sağlık hizmetlerinin geleceği, bu zorlukların üstesinden sorumlu ve etik bir şekilde gelme yeteneğimize bağlıdır. Ancak o zaman AI’nın gerçekten hastaların ve toplumun bir bütün olarak en iyi çıkarlarına hizmet etmesini sağlayabiliriz.