مخاوف بشأن نموذج الذكاء الاصطناعي NHS

Foresight: نموذج الذكاء الاصطناعي التوليدي على نطاق وطني

تم تصور Foresight في عام 2023، واستخدم في البداية GPT-3 من OpenAI، وهي التقنية التي تدعم النسخة الأولى من ChatGPT، وتم تدريبه على 1.5 مليون سجل مريض من مستشفيين في لندن. قام كريس توملينسون وفريقه في University College London منذ ذلك الحين بتوسيع Foresight، واصفين إياه بأنه أول "نموذج ذكاء اصطناعي توليدي للبيانات الصحية على نطاق وطني" في العالم. تستفيد هذه النسخة المحسنة من LLM Llama 2 مفتوح المصدر من Meta وتتضمن ثماني مجموعات بيانات متميزة يتم جمعها بشكل روتيني بواسطة NHS في إنجلترا من نوفمبر 2018 إلى ديسمبر 2023. تشمل مجموعات البيانات هذه مواعيد العيادات الخارجية، وعمليات إدخال المستشفى، وسجلات التطعيم، والأحداث الأخرى المتعلقة بالصحة، والتي يبلغ مجموعها 10 مليارات نقطة بيانات عبر 57 مليون فرد - أي بشكل أساسي إجمالي عدد سكان إنجلترا.

على الرغم من عدم وجود مقاييس أداء متاحة للجمهور بسبب الاختبارات المستمرة، يؤكد توملينسون أن Foresight يمكن أن يسهل في النهاية التشخيصات الفردية والتنبؤ بالاتجاهات الصحية الأوسع، مثل حالات دخول المستشفى أو النوبات القلبية. وشدد على إمكانات النموذج للتنبؤ بمضاعفات الأمراض بشكل استباقي، مما يتيح التدخل المبكر والتحول نحو الرعاية الصحية الوقائية على نطاق واسع خلال مؤتمر صحفي في 6 مايو.

مخاوف الخصوصية وحماية البيانات

أثارت احتمالية تغذية مثل هذه البيانات الطبية المكثفة في نموذج الذكاء الاصطناعي مخاوف بشأن الخصوصية. على الرغم من أن الباحثين يدعون أن جميع السجلات تم "إلغاء تحديدها" قبل تدريب الذكاء الاصطناعي، إلا أن خطر إعادة التعريف من خلال تحليل أنماط البيانات لا يزال مصدر قلق كبير، خاصة مع مجموعات البيانات الكبيرة.

يسلط لوك روشر من جامعة أكسفورد الضوء على التحدي الكامن المتمثل في حماية خصوصية المريض مع بناء نماذج ذكاء اصطناعي توليدية قوية. إن ثراء البيانات نفسه الذي يجعل البيانات ذات قيمة لأغراض الذكاء الاصطناعي يجعل من الصعب للغاية إخفاء هويتها. يدعو روشر إلى فرض رقابة صارمة من NHS على هذه النماذج لضمان الاستخدام الآمن.

يقر مايكل تشابمان من NHS Digital بالخطر الكامن لإعادة التعريف، حتى مع البيانات التي تم إلغاء تحديدها. في حين تتم إزالة المعرفات المباشرة، فإن ثراء البيانات الصحية يجعل من الصعب ضمان إخفاء الهوية الكامل.

ولمواجهة هذا الخطر، ذكر تشابمان أن الذكاء الاصطناعي يعمل داخل بيئة بيانات NHS "آمنة"، مما يقيد تسرب المعلومات ويضمن الوصول فقط إلى الباحثين المعتمدين. توفر Amazon Web Services وDatabricks البنية التحتية الحسابية ولكن لا يمكنهما الوصول إلى البيانات.

يقترح Yves-Alexandre de Montjoye من إمبريال كوليدج لندن التحقق من قدرة النموذج على حفظ بيانات التدريب للكشف عن تسرب المعلومات المحتمل. عندما سألته مجلة New Scientist، اعترف توملينسون بأن فريق Foresight لم يجر هذه الاختبارات بعد ولكنه يخطط للقيام بذلك في المستقبل.

ثقة الجمهور واستخدام البيانات

تؤكد كارولين جرين من جامعة أكسفورد على أهمية إيصال استخدام البيانات إلى الجمهور للحفاظ على الثقة. على الرغم من جهود إخفاء الهوية، يريد الناس عمومًا التحكم في بياناتهم وفهم وجهتها، مما يجعلهم يشعرون بقوة شديدة بشأن أخلاقيات ذلك.

توفر عناصر التحكم الحالية خيارات محدودة للأفراد لرفض استخدام البيانات بواسطة Foresight. يتم استخدام البيانات من مجموعات بيانات NHS التي يتم جمعها على المستوى الوطني لتدريب النموذج، وآليات إلغاء الاشتراك الحالية لا تنطبق لأن البيانات "تم إلغاء تحديدها"، وفقًا لما ذكره متحدث باسم NHS England. ومع ذلك، فإن الأفراد الذين اختاروا عدم مشاركة البيانات من طبيبهم العائلي لن يتم تضمين بياناتهم في النموذج.

اللائحة العامة لحماية البيانات وإخفاء هوية البيانات

تنص اللائحة العامة لحماية البيانات (GDPR) على أن يكون للأفراد خيار سحب الموافقة على استخدام بياناتهم الشخصية. ومع ذلك، فإن عملية تدريب LLMs مثل Foresight تجعل من المستحيل إزالة سجل واحد من أداة الذكاء الاصطناعي. يؤكد المتحدث باسم NHS England أن اللائحة العامة لحماية البيانات (GDPR) لا تنطبق لأن البيانات المستخدمة لتدريب النموذج مجهولة المصدر ولا تشكل بيانات شخصية.

يوضح موقع مكتب مفوض المعلومات في المملكة المتحدة على الويب أنه لا ينبغي استخدام البيانات "التي تم إلغاء تحديدها" بالتبادل مع البيانات المجهولة، حيث أن قانون حماية البيانات في المملكة المتحدة لا يعرف المصطلح، ويمكن أن يؤدي استخدامه إلى الارتباك.

يزداد تعقيد الموقف القانوني بسبب استخدام Foresight الحالي للأبحاث المتعلقة بـ COVID-19، والذي يسمح باستثناءات لقوانين حماية البيانات التي تم سنها خلال الوباء، وفقًا لما ذكره سام سميث من medConfidential. يؤكد سميث أن الذكاء الاصطناعي الخاص بـ COVID فقط يحتوي على الأرجح على بيانات مرضى مضمنة لا ينبغي أن تغادر المختبر، ويجب أن يكون للمرضى سيطرة على استخدام بياناتهم.

الاعتبارات الأخلاقية

تضع الاعتبارات الأخلاقية المحيطة باستخدام البيانات الطبية لتطوير الذكاء الاصطناعي Foresight في وضع محفوف بالمخاطر. تجادل غرين بأن الأخلاقيات والاعتبارات الإنسانية يجب أن تكون نقطة البداية لتطوير الذكاء الاصطناعي، بدلاً من أن تكون فكرة لاحقة.

فحص المخاوف بشكل أعمق

إن المخاوف المحيطة باستخدام Foresight لسجلات NHS الطبية تتجاوز مجرد خصوصية البيانات. إنها تمس الأسئلة الأساسية حول ملكية المعلومات الصحية الشخصية، وإمكانية التحيز الخوارزمي، والتأثير طويل المدى للذكاء الاصطناعي على علاقة الطبيب بالمريض.

ملكية بيانات الصحة والتحكم فيها

تتمثل إحدى المعضلات الأخلاقية الأساسية في مدى سيطرة الأفراد على بياناتهم الصحية. في حين أن NHS تتطلب بلا شك الوصول إلى معلومات المرضى لتقديم رعاية فعالة، فإن استخدام هذه البيانات لتدريب الذكاء الاصطناعي يثير تساؤلات حول ما إذا كان الأفراد على علم كافٍ ومخولين بالموافقة على هذه الاستخدامات الثانوية.

آليات إلغاء الاشتراك الحالية غير كافية، لأنها لا تعالج بشكل كامل تعقيدات تدريب الذكاء الاصطناعي. إن الحجة القائلة بأن البيانات التي تم إلغاء تحديدها لم تعد بيانات شخصية بموجب اللائحة العامة لحماية البيانات (GDPR) هي تفسير قانوني يتجاهل حقيقة أنه حتى البيانات المجهولة يمكن إعادة تحديدها أو استخدامها للاستدلال على الأفراد.

يتمثل النهج الأكثر قوة في تنفيذ نظام للموافقة المستنيرة يوضح صراحة كيف يمكن استخدام بيانات المرضى لأبحاث وتطوير الذكاء الاصطناعي. سيتطلب ذلك تفسيرات واضحة ويسهل الوصول إليها للفوائد والمخاطر المحتملة لمثل هذه الاستخدامات، فضلاً عن تزويد الأفراد بفرصة ذات مغزى للاشتراك أو إلغاء الاشتراك.

التحيز الخوارزمي

هناك قلق كبير آخر يتمثل في إمكانية التحيز الخوارزمي في نماذج الذكاء الاصطناعي التي تم تدريبها على مجموعات بيانات كبيرة. إذا كانت البيانات المستخدمة لتدريب Foresight تعكس التفاوتات الصحية القائمة، فقد يؤدي النموذج إلى إدامة هذه التفاوتات وتضخيمها.

على سبيل المثال، إذا كانت بعض المجموعات الديموغرافية ممثلة تمثيلاً ناقصًا في مجموعة البيانات أو إذا كانت الحالات الطبية الخاصة بهم يتم تشخيصها أو علاجها بشكل خاطئ، فقد يكون الذكاء الاصطناعي أقل دقة في التنبؤ بالمرض أو حالات دخول المستشفى لهذه المجموعات. قد يؤدي ذلك إلى عدم المساواة في الوصول إلى موارد الرعاية الصحية واحتمال تفاقم التفاوتات الصحية القائمة.

للتخفيف من خطر التحيز الخوارزمي، من الضروري تحليل البيانات المستخدمة لتدريب Foresight بعناية وتحديد ومعالجة أي تحيزات محتملة. قد يتضمن ذلك أخذ عينات زائدة من المجموعات الممثلة تمثيلاً ناقصًا، وتصحيح الأخطاء في البيانات، وتطوير خوارزميات مصممة خصيصًا لتكون عادلة ومنصفة.

التأثير على علاقة الطبيب بالمريض

إن الاستخدام المتزايد للذكاء الاصطناعي في الرعاية الصحية لديه القدرة على تغيير العلاقة التقليدية بين الطبيب والمريض بطرق عميقة. في حين أن الذكاء الاصطناعي يمكن أن يساعد الأطباء بلا شك في اتخاذ قرارات أكثر استنارة، فمن الضروري التأكد من أنه لا يحل محل العنصر البشري في الرعاية.

يحتاج المرضى إلى الشعور بالثقة في أن أطبائهم يستخدمون الذكاء الاصطناعي كأداة لتعزيز حكمهم السريري، وليس كبديل له. يجب أن تظل علاقة الطبيب بالمريض علاقة ثقة وتعاطف واتخاذ قرارات مشتركة.

لحماية علاقة الطبيب بالمريض، من المهم التأكيد على أهمية التفاعل البشري والتواصل في الرعاية الصحية. يجب تدريب الأطباء على توصيل دور الذكاء الاصطناعي بشكل فعال في عملية صنع القرار الخاصة بهم ومعالجة أي مخاوف قد تكون لدى المرضى.

إيجاد طريق للمضي قدمًا

يتطلب التنقل في المشهد الأخلاقي والقانوني المعقد المحيط بالذكاء الاصطناعي في الرعاية الصحية اتباع نهج متعدد الأوجه.

  • الشفافية والمشاركة العامة: قم بالإبلاغ علنًا عن كيفية استخدام بيانات المرضى وإشراك الجمهور في مناقشات حول الآثار الأخلاقية للذكاء الاصطناعي في الرعاية الصحية.
  • تعزيز حماية البيانات: تنفيذ تدابير أكثر صرامة لحماية البيانات لتقليل خطر إعادة التعريف والتأكد من أن الأفراد لديهم سيطرة أكبر على بياناتهم الصحية.
  • معالجة التحيز الخوارزمي: تحديد وتخفيف التحيز الخوارزمي بنشاط في نماذج الذكاء الاصطناعي لضمان الوصول العادل إلى الرعاية الصحية للجميع.
  • إعطاء الأولوية للرعاية التي تركز على الإنسان: التأكيد على أهمية علاقة الطبيب بالمريض والتأكد من استخدام الذكاء الاصطناعي كأداة لتعزيز التفاعل البشري، وليس استبداله.

من خلال معالجة هذه المخاوف، يمكننا تسخير الإمكانات التحويلية للذكاء الاصطناعي في الرعاية الصحية مع حماية خصوصية المرضى وتعزيز المساواة والحفاظ على العنصر البشري في الرعاية. يعتمد مستقبل الرعاية الصحية على قدرتنا على التعامل مع هذه التحديات بمسؤولية وأخلاقية. عندها فقط يمكننا التأكد من أن الذكاء الاصطناعي يخدم حقًا المصالح الفضلى للمرضى والمجتمع ككل.