Foresight کی تیاری، جو کہ ایک مصنوعی ذہانت (AI) ماڈل ہے، نے انگلینڈ میں نیشنل ہیلتھ سروس (NHS) کے 57 ملین طبی ریکارڈوں کے ایک وسیع ڈیٹا سیٹ پر اس کے انحصار کی وجہ سے کافی بحث و مباحثہ کو جنم دیا ہے۔ اگرچہ حامی بیماری کی پیش گوئی اور ہسپتال میں داخلے کی پیشن گوئی کے ذریعے صحت کی دیکھ بھال میں انقلاب برپا کرنے کی اس کی صلاحیت کی تشہیر کرتے ہیں، لیکن ناقدین مریضوں کی رازداری اور ڈیٹا کے تحفظ کے بارے میں سنگین خدشات کا اظہار کرتے ہیں۔ یہ مضمون Foresight کی باریکیوں میں ڈوبتا ہے، اس کی صلاحیتوں، اخلاقی مخمصوں، اور ممکنہ خطرات کو کم کرنے کے لیے موجود حفاظتی تدابیر کا جائزہ لیتا ہے۔
Foresight: ایک قومی پیمانے پر جنریٹو AI ماڈل
Foresight، جو 2023 میں تصور کیا گیا تھا، نے ابتدائی طور پر OpenAI کے GPT-3 کا استعمال کیا، جو کہ ChatGPT کے پہلے تکرار کی حمایت کرنے والی ٹیکنالوجی ہے، اور اسے لندن کے دو ہسپتالوں کے 1.5 ملین مریضوں کے ریکارڈ پر تربیت دی گئی۔ یونیورسٹی کالج لندن کے کرس ٹوملنسن اور ان کی ٹیم نے اس کے بعد Foresight کو وسعت دی ہے، جس سے اسے دنیا کا پہلا “صحت کے اعداد و شمار کا قومی پیمانے پر جنریٹو AI ماڈل” قرار دیا گیا ہے۔ یہ بہتر ورژن میٹا کے اوپن سورس LLM Llama 2 کا فائدہ اٹھاتا ہے اور نومبر 2018 سے دسمبر 2023 تک انگلینڈ میں NHS کے ذریعے معمول کے مطابق جمع کیے جانے والے آٹھ مختلف ڈیٹا سیٹوں کو شامل کرتا ہے۔ ان ڈیٹا سیٹوں میں بیرونی مریضوں کی تقرریاں، ہسپتال میں داخلے، ویکسینیشن کے ریکارڈ، اور دیگر صحت سے متعلق واقعات شامل ہیں، جو 57 ملین افراد میں 10 بلین ڈیٹا پوائنٹس پر مشتمل ہیں - جو کہ بنیادی طور پر انگلینڈ کی پوری آبادی ہے۔
جاری جانچ کی وجہ سے عوامی طور پر دستیاب کارکردگی کے میٹرکس کی کمی کے باوجود، ٹوملنسن کا دعویٰ ہے کہ Foresight بالآخر انفرادی تشخیص میں سہولت فراہم کر سکتا ہے اور صحت کے وسیع تر رجحانات کی پیش گوئی کر سکتا ہے، جیسے کہ ہسپتال میں داخلے یا دل کے دورے۔ انہوں نے 6 مئی کو ایک پریس کانفرنس کے دوران ماڈل کی بیماری کی پیچیدگیوں کی پیشگی پیش گوئی کرنے کی صلاحیت پر زور دیا، جس سے ابتدائی مداخلت اور بڑے پیمانے پر احتیاطی صحت کی دیکھ بھال کی طرف تبدیلی ممکن ہو سکے۔
رازداری اور ڈیٹا کے تحفظ کے خدشات
اتنے وسیع طبی اعداد و شمار کو AI ماڈل میں ڈالنے کے امکان نے رازداری کے بارے میں خدشات کو جنم دیا ہے۔ اگرچہ محققین کا دعویٰ ہے کہ AI کو تربیت دینے سے پہلے تمام ریکارڈز کو “ڈی شناخت” کر دیا گیا تھا، لیکن ڈیٹا پیٹرن کے تجزیے کے ذریعے دوبارہ شناخت کا خطرہ ایک اہم تشویش کا باعث ہے، خاص طور پر بڑے ڈیٹا سیٹوں کے ساتھ۔
یونیورسٹی آف آکسفورڈ کے لک روچر نے طاقتور جنریٹو AI ماڈلز کی تعمیر کے دوران مریضوں کی رازداری کے تحفظ کے موروثی چیلنج کو اجاگر کیا ہے۔ وہ اعداد و شمار کی فراوانی جو ڈیٹا کو AI کے مقاصد کے لیے قیمتی بناتی ہے اسے گمنام کرنا بھی ناقابل یقین حد تک مشکل بنا دیتی ہے۔ روچر ان ماڈلز کے محفوظ استعمال کو یقینی بنانے کے لیے NHS کے سخت کنٹرول کی وکالت کرتے ہیں۔
NHS ڈیجیٹل کے مائیکل چیپ مین نے ڈی شناخت شدہ ڈیٹا کے ساتھ بھی دوبارہ شناخت کے موروثی خطرے کا اعتراف کیا۔ اگرچہ براہ راست شناخت کنندگان کو ہٹا دیا جاتا ہے، لیکن صحت کے اعداد و شمار کی فراوانی مکمل گمنامی کی ضمانت دینا مشکل بنا دیتی ہے۔
اس خطرے کا مقابلہ کرنے کے لیے، چیپ مین نے کہا کہ AI ایک “محفوظ” NHS ڈیٹا ماحول میں کام کرتا ہے، معلومات کے رساؤ کو محدود کرتا ہے اور صرف منظور شدہ محققین تک رسائی کو یقینی بناتا ہے۔ Amazon Web Services اور Databricks کمپیوٹیشنل انفراسٹرکچر فراہم کرتے ہیں لیکن ڈیٹا تک رسائی حاصل نہیں کر سکتے۔
امپیریل کالج لندن کے Yves-Alexandre de Montjoye ممکنہ معلومات کے رساؤ کا پتہ لگانے کے لیے تربیتی ڈیٹا کو حفظ کرنے کے لیے ماڈل کی صلاحیت کی تصدیق کرنے کی تجویز پیش کرتے ہیں۔ جب New Scientist کی جانب سے سوال کیا گیا تو ٹوملنسن نے اعتراف کیا کہ Foresight ٹیم نے ابھی تک یہ ٹیسٹ نہیں کیے ہیں لیکن مستقبل میں ایسا کرنے کا منصوبہ بنایا ہے۔
عوامی اعتماد اور ڈیٹا کا استعمال
یونیورسٹی آف آکسفورڈ کی کیرولین گرین نے اعتماد کو برقرار رکھنے کے لیے عوام تک ڈیٹا کے استعمال کو پہنچانے کی اہمیت پر زور دیا۔ گمنامی کی کوششوں کے باوجود، لوگ عام طور پر اپنے ڈیٹا کو کنٹرول کرنا چاہتے ہیں اور اس کی منزل کو سمجھنا چاہتے ہیں، جو انہیں اس کی اخلاقیات کے بارے میں بہت شدت سے محسوس کراتا ہے۔
موجودہ کنٹرول افراد کے لیے Foresight کے ذریعے ڈیٹا کے استعمال سے دستبردار ہونے کے محدود اختیارات پیش کرتے ہیں۔ NHS کے قومی طور پر جمع کیے گئے ڈیٹا سیٹوں سے حاصل کردہ ڈیٹا ماڈل کو تربیت دینے کے لیے استعمال کیا جاتا ہے، اور موجودہ آپٹ آؤٹ میکانزم لاگو نہیں ہوتے کیونکہ NHS انگلینڈ کے ترجمان کے مطابق، ڈیٹا کو “ڈی شناخت” کر دیا گیا ہے۔ تاہم، جن افراد نے اپنے فیملی ڈاکٹر سے ڈیٹا شیئر کرنے سے دستبردار ہو گئے ہیں، ان کا ڈیٹا ماڈل میں شامل نہیں کیا جائے گا۔
GDPR اور ڈیٹا کو گمنام کرنا
جنرل ڈیٹا پروٹیکشن ریگولیشن (GDPR) لازمی قرار دیتا ہے کہ افراد کو اپنے ذاتی ڈیٹا کے استعمال کے لیے رضامندی واپس لینے کا اختیار حاصل ہو۔ تاہم، Foresight جیسے LLMs کی تربیتی عمل AI ٹول سے ایک واحد ریکارڈ کو ہٹانا ناممکن بنا دیتا ہے۔ NHS انگلینڈ کے ترجمان کا دعویٰ ہے کہ GDPR لاگو نہیں ہوتا کیونکہ ماڈل کو تربیت دینے کے لیے استعمال ہونے والا ڈیٹا گمنام ہے اور اس میں ذاتی ڈیٹا شامل نہیں ہے۔
یو کے انفارمیشن کمشنر آفس کی ویب سائٹ وضاحت کرتی ہے کہ “ڈی شناخت شدہ” ڈیٹا کو گمنام ڈیٹا کے ساتھ تبادلہ نہیں کرنا چاہیے، کیونکہ یو کے ڈیٹا پروٹیکشن قانون اس اصطلاح کی تعریف نہیں کرتا ہے، اور اس کا استعمال الجھن کا باعث بن سکتا ہے۔
قانونی پوزیشن کو Foresight کے کوویڈ-19 سے متعلق تحقیق کے لیے موجودہ استعمال سے مزید پیچیدہ کیا گیا ہے، جو کہ medConfidential کے سام سمتھ کے مطابق، وبائی امراض کے دوران نافذ کردہ ڈیٹا پروٹیکشن قوانین سے مستثنیات کی اجازت دیتا ہے۔ سمتھ کا دعویٰ ہے کہ کوویڈ کے لیے مخصوص AI میں ممکنہ طور پر ایمبیڈڈ مریض کا ڈیٹا موجود ہے جسے لیب سے باہر نہیں جانا چاہیے، اور مریضوں کو اپنے ڈیٹا کے استعمال پر کنٹرول ہونا چاہیے۔
اخلاقی غور و فکر
AI کی ترقی کے لیے طبی اعداد و شمار کے استعمال کے گرد اخلاقی غور و فکر Foresight کو ایک غیر یقینی صورتحال میں ڈالتے ہیں۔ گرین کا استدلال ہے کہ اخلاقیات اور انسانی غور و فکر AI کی ترقی کے لیے نقطہ آغاز ہونا چاہیے، نہ کہ بعد میں آنے والا خیال۔
خدشات کا گہرائی سے جائزہ لینا
NHS طبی ریکارڈ کے Foresight کے استعمال کے بارے میں خدشات محض ڈیٹا کی رازداری سے بالاتر ہیں۔ وہ ذاتی صحت کی معلومات کی ملکیت، الگورتھمک تعصب کے امکان، اور ڈاکٹر مریض کے تعلقات پر AI کے طویل مدتی اثرات کے بارے میں بنیادی سوالات کو چھوتے ہیں۔
صحت کے ڈیٹا کی ملکیت اور کنٹرول
بنیادی اخلاقی مخمصوں میں سے ایک یہ ہے کہ افراد کو اپنے صحت کے ڈیٹا پر کس حد تک کنٹرول ہونا چاہیے۔ اگرچہ NHS کو مؤثر دیکھ بھال فراہم کرنے کے لیے بلاشبہ مریض کی معلومات تک رسائی درکار ہوتی ہے، لیکن AI تربیت کے لیے اس ڈیٹا کے استعمال سے سوالات اٹھتے ہیں کہ کیا افراد کو اس طرح کے ثانوی استعمال کے بارے میں مناسب طور پر آگاہ کیا جاتا ہے اور ان کی رضامندی دینے کے لیے بااختیار بنایا جاتا ہے۔
موجودہ آپٹ آؤٹ میکانزم ناکافی ہیں، کیونکہ وہ AI تربیت کی پیچیدگیوں کو پوری طرح سے حل نہیں کرتے ہیں۔ یہ دلیل کہ ڈی شناخت شدہ ڈیٹا GDPR کے تحت مزید ذاتی ڈیٹا نہیں ہے، ایک قانونی تشریح ہے جو اس حقیقت کو نظر انداز کرتی ہے کہ گمنام ڈیٹا کو بھی ممکنہ طور پر دوبارہ شناخت کیا جا سکتا ہے یا افراد کے بارے میں قیاس آرائیاں کرنے کے لیے استعمال کیا جا سکتا ہے۔
ایک زیادہ مضبوط طریقہ کار میں باخبر رضامندی کے نظام کو نافذ کرنا شامل ہوگا جو واضح طور پر بتائے کہ مریض کے ڈیٹا کو AI تحقیق اور ترقی کے لیے کس طرح استعمال کیا جا سکتا ہے۔ اس کے لیے ایسے استعمال کے ممکنہ فوائد اور خطرات کی واضح اور قابل رسائی وضاحت کی ضرورت ہوگی، نیز افراد کو آپٹ ان یا آپٹ آؤٹ کرنے کا بامعنی موقع فراہم کرنا ہوگا۔
الگورتھمک تعصب
ایک اور اہم تشویش بڑے ڈیٹا سیٹوں پر تربیت یافتہ AI ماڈلز میں الگورتھمک تعصب کا امکان ہے۔ اگر Foresight کو تربیت دینے کے لیے استعمال ہونے والا ڈیٹا صحت سے متعلق موجودہ تفاوت کو ظاہر کرتا ہے، تو ماڈل ان عدم مساوات کو جاری رکھ سکتا ہے اور یہاں تک کہ بڑھا سکتا ہے۔
مثال کے طور پر، اگر بعض آبادیاتی گروہ ڈیٹا سیٹ میں کم نمائندگی کرتے ہیں یا اگر ان کی طبی حالات کی غلط تشخیص کی جاتی ہے یا ان کا کم علاج کیا جاتا ہے، تو AI ان گروہوں کے لیے بیماری یا ہسپتال میں داخلے کی پیش گوئی کرنے میں کم درست ہو سکتا ہے۔ اس سے صحت کی دیکھ بھال کے وسائل تک غیر مساوی رسائی حاصل ہو سکتی ہے اور ممکنہ طور پر صحت سے متعلق موجودہ عدم مساوات میں اضافہ ہو سکتا ہے۔
الگورتھمک تعصب کے خطرے کو کم کرنے کے لیے، Foresight کو تربیت دینے کے لیے استعمال ہونے والے ڈیٹا کا احتیاط سے تجزیہ کرنا اور کسی بھی ممکنہ تعصب کی نشاندہی اور ان کو دور کرنا ضروری ہے۔ اس میں کم نمائندگی والے گروہوں کی اوورسمپلنگ، ڈیٹا میں غلطیوں کو درست کرنا، اور ایسے الگورتھم تیار کرنا شامل ہو سکتا ہے جو خاص طور پر منصفانہ اور مساوی ہونے کے لیے ڈیزائن کیے گئے ہیں۔
ڈاکٹر مریض کے تعلقات پر اثر
صحت کی دیکھ بھال میں AI کے بڑھتے ہوئے استعمال میں روایتی ڈاکٹر مریض کے تعلقات کو گہرائی سے تبدیل کرنے کی صلاحیت ہے۔ اگرچہ AI بلاشبہ ڈاکٹروں کو زیادہ باخبر فیصلے کرنے میں مدد کر سکتا ہے، لیکن یہ یقینی بنانا بہت ضروری ہے کہ یہ دیکھ بھال کے انسانی عنصر کی جگہ نہ لے۔
مریضوں کو یہ اعتماد محسوس کرنے کی ضرورت ہے کہ ان کے ڈاکٹر AI کو اپنے طبی فیصلے کو بڑھانے کے لیے ایک آلے کے طور پر استعمال کر رہے ہیں، نہ کہ اس کے متبادل کے طور پر۔ ڈاکٹر مریض کا تعلق اعتماد، ہمدردی اور مشترکہ فیصلہ سازی پر مبنی رہنا چاہیے۔
ڈاکٹر مریض کے تعلقات کو محفوظ رکھنے کے لیے، صحت کی دیکھ بھال میں انسانی تعامل اور مواصلات کی اہمیت پر زور دینا ضروری ہے۔ ڈاکٹروں کو ان کے فیصلہ سازی کے عمل میں AI کے کردار سے مؤثر طریقے سے بات چیت کرنے اور مریضوں کو جو خدشات لاحق ہو سکتے ہیں ان کو دور کرنے کے لیے تربیت دی جانی چاہیے۔
آگے بڑھنے کا راستہ تلاش کرنا
صحت کی دیکھ بھال میں AI کے ارد گرد پیچیدہ اخلاقی اور قانونی منظر نامے پر تشریف لے جانے کے لیے ایک کثیر الجہتی نقطہ نظر کی ضرورت ہے۔
- شفافیت اور عوامی شمولیت: واضح طور پر بتائیں کہ مریض کا ڈیٹا کس طرح استعمال ہوتا ہے اور صحت کی دیکھ بھال میں AI کے اخلاقی مضمرات کے بارے میں تبادلہ خیال میں عوام کو شامل کریں۔
- ڈیٹا کے تحفظ کو مضبوط بنانا: دوبارہ شناخت کے خطرے کو کم سے کم کرنے کے لیے ڈیٹا کے تحفظ کے سخت اقدامات کو نافذ کریں اور اس بات کو یقینی بنائیں کہ افراد کو اپنے صحت کے ڈیٹا پر زیادہ کنٹرول حاصل ہے۔
- الگورتھمک تعصب کو دور کرنا: سب کے لیے صحت کی دیکھ بھال تک مساوی رسائی کو یقینی بنانے کے لیے AI ماڈلز میں فعال طور پر الگورتھمک تعصب کی نشاندہی کریں اور اسے کم کریں۔
- انسانی مرکزیت والی دیکھ بھال کو ترجیح دینا: ڈاکٹر مریض کے تعلقات کی اہمیت پر زور دیں اور اس بات کو یقینی بنائیں کہ AI کو انسانی تعامل کو بڑھانے کے لیے ایک آلے کے طور پر استعمال کیا جائے، نہ کہ اس کی جگہ لینے کے لیے۔
ان خدشات کو دور کرتے ہوئے، ہم مریضوں کی رازداری کی حفاظت، مساوات کو فروغ دینے، اور دیکھ بھال کے انسانی عنصر کو محفوظ رکھتے ہوئے صحت کی دیکھ بھال میں AI کی تبدیلی کی صلاحیت کو بروئے کار لا سکتے ہیں۔ صحت کی دیکھ بھال کا مستقبل ان چیلنجوں سے ذمہ داری اور اخلاقی طور پر نمٹنے کی ہماری صلاحیت پر منحصر ہے۔ تب ہی ہم اس بات کو یقینی بنا سکتے ہیں کہ AI واقعی مریضوں اور معاشرے کے بہترین مفادات کی خدمت کرے۔