چینی ہسپتالوں میں DeepSeek AI کے بارے میں خدشات

چینی محققین کی ایک ٹیم نے DeepSeek، ایک مصنوعی ذہانت ماڈل، کو ہسپتال کے ماحول میں تیزی سے ضم کرنے کے حوالے سے خدشات کا اظہار کیا ہے۔ ان کے تجزیے میں طبی حفاظت اور ڈیٹا کی رازداری کے لیے ممکنہ خطرات کو اجاگر کیا گیا ہے، خاص طور پر اسٹارٹ اپ کے سستے اوپن سورس ماڈلز کے وسیع استعمال کی وجہ سے۔

مارچ کے اوائل تک، DeepSeek کے بڑے لسانی ماڈلز (LLMs) طبی تشخیص اور طبی فیصلے میں مدد کے لیے کم از کم 300 چینی ہسپتالوں میں پہلے ہی استعمال کیے جا رہے تھے۔

جرنل آف دی امریکن میڈیکل ایسوسی ایشن (JAMA) میں شائع ہونے والے تحقیقی مقالے میں DeepSeek کے ایسے نتائج پیدا کرنے کے رجحان کی نشاندہی کی گئی ہے جو قائل کن لگتے ہیں لیکن وہ حقائق کے لحاظ سے درست نہیں ہوتے۔ اگرچہ AI کی استدلال کی صلاحیتیں مضبوط ہیں، لیکن اس سے طبی لحاظ سے اہم خطرات پیدا ہو سکتے ہیں۔ وونگ تیان ین، جو سنگھوا میڈیسن کے بانی سربراہ ہیں، جو بیجنگ کی سنگھوا یونیورسٹی میں ایک تحقیقی ڈویژن ہے، تحقیقی ٹیم کے رکن ہیں۔

یہ انتباہی نوٹ چین میں DeepSeek کے لیے موجودہ جوش و خروش سے متصادم ہے۔ اسٹارٹ اپ، جو اپنے سستے اور اعلیٰ کارکردگی والے V3 اور R1 ماڈلز کے لیے مشہور ہے، چین کی AI میں ترقی کی علامت بن چکا ہے۔

وونگ اور ان کے شریک مصنفین نے اس خطرے پر زور دیا کہ صحت کی دیکھ بھال کرنے والے پیشہ ور افراد DeepSeek کے نتائج پر ضرورت سے زیادہ انحصار کر سکتے ہیں یا تنقیدی جائزہ لیے بغیر انہیں قبول کر سکتے ہیں۔ اس سے تشخیص میں غلطیاں یا متعصبانہ علاج کے منصوبے بن سکتے ہیں۔ اس کے برعکس، جو طبیب محتاط رہتے ہیں انہیں وقت کی کمی کے باعث AI کے نتائج کی تصدیق کرنے کا اضافی بوجھ اٹھانا پڑے گا۔

سائٹ پر تعیناتی میں حفاظتی خطرات

اگرچہ ہسپتال اکثر حفاظتی اور رازداری سے وابستہ خطرات کو کم کرنے کے لیے DeepSeek ماڈلز کی نجی، سائٹ پر تعیناتی کا انتخاب کرتے ہیں، لیکن یہ طریقہ کار اپنی پیچیدگیاں پیش کرتا ہے۔ محققین کے مطابق، یہ “حفاظتی ذمہ داریوں کو انفرادی صحت کی دیکھ بھال کی سہولیات پر منتقل کرتا ہے،” جن میں سے بہت سے ضروری سائبر سیکیورٹی دفاع کی کمی کا شکار ہو سکتے ہیں۔

محققین نے یہ بھی نوٹ کیا کہ چین میں نامناسب بنیادی صحت کی دیکھ بھال کے بنیادی ڈھانچے اور اسمارٹ فون کے وسیع استعمال کا امتزاج ایک “کامل طوفان” پیدا کرتا ہے جو طبی حفاظت کے بارے میں خدشات کو بڑھاتا ہے۔

محققین کا کہنا ہے، “پیچیدہ طبی ضروریات کے حامل محروم طبقات کو اب AI کے زیر انتظام صحت کی سفارشات تک غیر معمولی رسائی حاصل ہے، لیکن اکثر محفوظ نفاذ کے لیے درکار طبی نگرانی کی کمی ہوتی ہے۔”

صحت کی دیکھ بھال کے ماحول میں LLMs کی جانچ پڑتال

یہ مقالہ طبی اور طبی ترتیبات میں LLMs کے استعمال کے بارے میں بڑھتی ہوئی گفتگو میں حصہ ڈالتا ہے۔ چین میں دیگر تنظیمیں بھی LLMs کی جانچ پڑتال شروع کر رہی ہیں کیونکہ ان کا استعمال تیز ہو رہا ہے۔ ہانگ کانگ کی چینی یونیورسٹی کے محققین کی جانب سے گزشتہ ماہ شائع ہونے والے ایک اور مقالے میں AI ایجنٹوں کے سائبر سیکیورٹی کے خطرات کا جائزہ لیا گیا، اور پتا چلا کہ عام طور پر استعمال ہونے والے LLMs کے ذریعے چلنے والے مختلف حملوں کا شکار تھے، جن میں DeepSeek-R1 سب سے زیادہ متاثر تھا۔

چین نے جنریٹو AI ٹیکنالوجیز میں اضافے کے درمیان صحت کی دیکھ بھال میں LLMs کو اپنانے میں تیزی لائی ہے۔ گزشتہ ماہ، چین کی مالیاتی ٹیکنالوجی کمپنی Ant Group نے اپنے Alipay ادائیگی ایپ پر تقریباً 100 AI طبی ایجنٹ متعارف کرائے۔ ان ایجنٹوں کو ممتاز چینی ہسپتالوں کے طبی ماہرین کی مدد حاصل ہے۔

سنگھوا یونیورسٹی میں تیار کردہ ایک اسٹارٹ اپ، Tairex نے نومبر میں ایک ورچوئل ہسپتال پلیٹ فارم کی اندرونی جانچ شروع کی۔ پلیٹ فارم میں 42 AI ڈاکٹرز شامل ہیں جو 21 محکموں کا احاطہ کرتے ہیں، جن میں ایمرجنسی، سانس، بچوں اور امراض قلب شامل ہیں۔ کمپنی نے اس سال کے آخر میں پلیٹ فارم کو عوام کے لیے لانچ کرنے کے منصوبوں کا انکشاف کیا۔

صحت کی دیکھ بھال میں AI کے حوالے سے خدشات میں گہرائی سے جائزہ

AI، خاص طور پر بڑے لسانی ماڈلز (LLMs) جیسے DeepSeek، کو چین میں صحت کی دیکھ بھال کے ماحول میں تیزی سے ضم کرنے سے ان لوگوں کے درمیان ایک بحث چھڑ گئی ہے جو اس کے ممکنہ فوائد کے حامی ہیں اور وہ جو احتیاط برتنے پر زور دیتے ہیں۔ اگرچہ AI تشخیص، علاج اور دیکھ بھال تک رسائی کو بہتر بنانے کے لیے دلچسپ امکانات پیش کرتا ہے، لیکن کئی عوامل ایک زیادہ محتاط انداز کی ضمانت دیتے ہیں۔ محققین کی جانب سے اٹھائے گئے خدشات اس طرح کے نازک ڈومین میں AI کو تعینات کرنے کی پیچیدگیوں اور ممکنہ نقصانات کو اجاگر کرتے ہیں۔

بنیادی خدشات میں سے ایک AI کے ذریعے تیار کردہ معلومات کی قابل اعتمادی ہے۔ LLMs کو وسیع ڈیٹاسیٹس پر تربیت دی جاتی ہے، لیکن ان ڈیٹاسیٹس میں تعصبات، غلطیاں یا پرانی معلومات ہو سکتی ہیں۔ نتیجے کے طور پر، AI ماڈل بعض اوقات ایسے نتائج پیدا کر سکتے ہیں جو قابل فہم نظر آتے ہیں لیکن درحقیقت غلط ہوتے ہیں۔ اس سے طبی ترتیبات میں ایک اہم خطرہ پیدا ہوتا ہے، جہاں تشخیصی غلطیاں یا علاج کی غلط سفارشات مریضوں کے لیے سنگین نتائج کا باعث بن سکتی ہیں۔

AI پر ضرورت سے زیادہ انحصار کا خطرہ

ایک اور تشویش صحت کی دیکھ بھال کرنے والے پیشہ ور افراد کے AI پر ضرورت سے زیادہ انحصار کرنے اور ان کی تنقیدی سوچ کی مہارتوں کے کھو جانے کا امکان ہے۔ اگر ڈاکٹر اور نرسیں AI کے نتائج کو غلطی سے پاک سمجھنے لگتے ہیں، تو وہ مریضوں کے حالات کا مناسب جائزہ لینے، اہم تفصیلات کو نظر انداز کرنے یا AI کی سفارشات پر سوال کرنے میں ناکام ہو سکتے ہیں۔ اس سے تشخیصی غلطیاں، نامناسب علاج اور دیکھ بھال کے معیار میں کمی واقع ہو سکتی ہے۔

مزید برآں، AI کو وسیع پیمانے پر اپنانے سے ڈیٹا کی رازداری، الگورتھمک تعصب اور ملازمتوں کے خاتمے کے امکان کے بارے میں اخلاقی اور سماجی سوالات اٹھتے ہیں۔ مریض اپنی صحت کے ڈیٹا کی حفاظت اور رازداری کے بارے میں فکر مند ہو سکتے ہیں، خاص طور پر اگر اسے AI ماڈلز کو تربیت دینے کے لیے استعمال کیا جا رہا ہو۔ الگورتھمک تعصب موجودہ صحت کی عدم مساوات کو بھی برقرار رکھ سکتا ہے اور اس میں اضافہ کر سکتا ہے اگر AI ماڈلز کو ایسے ڈیٹا پر تربیت دی جاتی ہے جو آبادی کے تنوع کی درست عکاسی نہیں کرتا ہے۔

جدت اور احتیاط کے درمیان توازن برقرار رکھنا

ان خطرات کو کم کرنے کے لیے، یہ ضروری ہے کہ صحت کی دیکھ بھال میں AI کے انضمام کے لیے زیادہ محتاط اور ذمہ دارانہ انداز اختیار کیا جائے۔ اس میں شامل ہیں:

  • سخت جانچ اور توثیق: AI ماڈلز کو طبی ترتیبات میں تعینات کرنے سے پہلے، ان کی درستگی، وشوسنییتا اور منصفانہ پن کو یقینی بنانے کے لیے متنوع آبادیوں پر ان کی اچھی طرح سے جانچ اور توثیق کی جانی چاہیے۔
  • انسانی نگرانی: AI کو انسانی فیصلے کو بڑھانے کے لیے ایک آلے کے طور پر استعمال کیا جانا چاہیے، نہ کہ اسے تبدیل کرنے کے لیے۔ صحت کی دیکھ بھال کرنے والے پیشہ ور افراد کو طبی فیصلے کرنے سے پہلے ہمیشہ AI کے نتائج کا جائزہ لینا اور توثیق کرنا چاہیے۔
  • شفافیت اور وضاحت: AI ماڈلز کو شفاف اور قابل فہم ہونا چاہیے، تاکہ صحت کی دیکھ بھال کرنے والے پیشہ ور افراد سمجھ سکیں کہ وہ اپنی سفارشات پر کیسے پہنچتے ہیں۔ اس سے AI میں اعتماد پیدا کرنے اور ممکنہ غلطیوں یا تعصبات کی نشاندہی کرنے میں مدد مل سکتی ہے۔
  • ڈیٹا کی رازداری اور تحفظ: مریض کے ڈیٹا کی رازداری اور تحفظ کے لیے مضبوط حفاظتی اقدامات کیے جانے چاہئیں۔ اس میں باخبر رضامندی حاصل کرنا، مضبوط حفاظتی اقدامات پر عمل درآمد کرنا اور ڈیٹا پروٹیکشن ریگولیشنز کی پابندی کرنا شامل ہے۔
  • تعلیم اور تربیت: صحت کی دیکھ بھال کرنے والے پیشہ ور افراد کو AI کو مؤثر اور ذمہ دارانہ طریقے سے استعمال کرنے کے بارے میں جامع تربیت حاصل کرنی چاہیے۔ اس میں AI کی حدود کو سمجھنا، ممکنہ تعصبات کو پہچاننا اور AI کے نتائج کا تنقیدی جائزہ لینا شامل ہے۔

سائبر سیکیورٹی کے خطرات سے نمٹنا

ہانگ کانگ کی چینی یونیورسٹی کے محققین کی جانب سے اجاگر کیے گئے AI ایجنٹوں کے سائبر سیکیورٹی کے خطرات صحت کی دیکھ بھال کے نظام کی سالمیت اور تحفظ کے لیے ایک سنگین خطرہ ہیں۔ اگر AI ماڈلز حملوں کا شکار ہیں، تو بدنیتی پر مبنی اداکار ممکنہ طور پر AI کے نتائج میں ہیرا پھیری کر سکتے ہیں، مریض کے حساس ڈیٹا تک رسائی حاصل کر سکتے ہیں یا صحت کی دیکھ بھال کے کاموں میں خلل ڈال سکتے ہیں۔

ان خطرات سے نمٹنے کے لیے، سائبر سیکیورٹی کے مضبوط اقدامات پر عمل درآمد کرنا ضروری ہے، جیسے کہ:

  • محفوظ کوڈنگ کے طریقے: AI ماڈلز کو SQL انجیکشن، کراس سائٹ اسکرپٹنگ اور بفر اوور فلو جیسے خطرات کو روکنے کے لیے محفوظ کوڈنگ کے طریقوں کا استعمال کرتے ہوئے تیار کیا جانا چاہیے۔
  • سیکیورٹی کے باقاعدہ آڈٹ: ممکنہ خطرات کی نشاندہی کرنے اور ان سے نمٹنے کے لیے AI سسٹمز کا سیکیورٹی کا باقاعدہ آڈٹ کیا جانا چاہیے۔
  • دراندازی کا پتہ لگانے اور روک تھام کے نظام: AI سسٹمز کی نگرانی کے لیے کہ آیا کوئی نقصان دہ سرگرمی ہو رہی ہے اور غیر مجاز رسائی کو روکنے کے لیے دراندازی کا پتہ لگانے اور روک تھام کے نظام کو نافذ کیا جانا چاہیے۔
  • ڈیٹا کی خفیہ کاری: مریض کے حساس ڈیٹا کو غیر مجاز رسائی سے بچانے کے لیے نقل و حمل کے دوران اور آرام کی حالت میں خفیہ کیا جانا چاہیے۔
  • رسائی کے کنٹرول: AI سسٹمز اور ڈیٹا تک رسائی کو محدود کرنے کے لیے سخت رسائی کے کنٹرول کو نافذ کیا جانا چاہیے تاکہ صرف مجاز اہلکار ہی رسائی حاصل کر سکیں۔

اخلاقی تحفظات

تکنیکی چیلنجوں سے بالاتر ہو کر، صحت کی دیکھ بھال میں AI کو ضم کرنے سے کئی اہم اخلاقی تحفظات جنم لیتے ہیں۔ ان میں شامل ہیں:

  • الگورتھمک تعصب: AI ماڈلز موجودہ صحت کی عدم مساوات کو برقرار رکھ سکتے ہیں اور اس میں اضافہ کر سکتے ہیں اگر انہیں ایسے ڈیٹا پر تربیت دی جاتی ہے جو آبادی کے تنوع کی درست عکاسی نہیں کرتا ہے۔ یہ یقینی بنانا ضروری ہے کہ AI ماڈلز منصفانہ اور غیر جانبدار ہوں۔
  • ڈیٹا کی رازداری: مریض اپنی صحت کے ڈیٹا کی رازداری کے بارے میں فکر مند ہو سکتے ہیں، خاص طور پر اگر اسے AI ماڈلز کو تربیت دینے کے لیے استعمال کیا جا رہا ہو۔ باخبر رضامندی حاصل کرنا اور مریض کے ڈیٹا کی حفاظت کرنا ضروری ہے۔
  • شفافیت اور وضاحت: AI ماڈلز کو شفاف اور قابل فہم ہونا چاہیے، تاکہ مریض سمجھ سکیں کہ وہ اپنی سفارشات پر کیسے پہنچتے ہیں۔ یہ AI میں اعتماد پیدا کرنے میں مدد کر سکتا ہے۔
  • جوابدہی: AI سسٹمز کے ذریعے کیے جانے والے فیصلوں کے لیے واضح جوابدہی کے خطوط قائم کرنا ضروری ہے۔ اگر کوئی AI ماڈل غلط تشخیص کرتا ہے یا کسی نامناسب علاج تجویز کرتا ہے تو کون ذمہ دار ہے؟

آگے کا راستہ

صحت کی دیکھ بھال میں AI کو ضم کرنے سے مریضوں کی دیکھ بھال کو بہتر بنانے، اخراجات کو کم کرنے اور صحت کی دیکھ بھال کے نظام کی کارکردگی کو بڑھانے کے زبردست امکانات موجود ہیں۔ تاہم، اس انضمام سے احتیاط کے ساتھ رجوع کرنا اور ممکنہ خطرات اور چیلنجوں سے نمٹنا ضروری ہے۔ ایک ذمہ دار اور اخلاقی انداز اپنا کر، ہم AI کی طاقت کو صحت کی دیکھ بھال کو بہتر بنانے کے لیے استعمال کر سکتے ہیں۔