اوپن سورس AI: طبی تشخیص میں ملکیتی ماڈلز کے برابر

مصنوعی ذہانت کی مسلسل پیش قدمی صنعتوں کو نئی شکل دے رہی ہے، اور شاید کہیں بھی داؤ اتنا بلند نہیں، اور نہ ہی امکانات اتنے گہرے ہیں، جتنا کہ طب کے شعبے میں۔ برسوں سے، سب سے طاقتور AI ماڈلز، خاص طور پر بڑے لسانی ماڈلز (LLMs)، جو انسانی جیسی متن پر کارروائی کرنے اور پیدا کرنے کی صلاحیت رکھتے ہیں، زیادہ تر ٹیکنالوجی کے بڑے اداروں کی حفاظتی دیواروں کے پیچھے مقیم رہے ہیں۔ یہ ملکیتی نظام، جیسے کہ OpenAI کا وسیع پیمانے پر زیر بحث GPT-4، نے قابل ذکر اہلیت کا مظاہرہ کیا، یہاں تک کہ طبی تشخیص کے پیچیدہ دائرے تک پھیل گیا۔ پھر بھی، ان کی ‘بلیک باکس’ نوعیت اور حساس معلومات کو بیرونی سرورز پر بھیجنے کی ضرورت نے صحت کی دیکھ بھال کی ترتیبات میں وسیع پیمانے پر، محفوظ اپنانے کے لیے اہم رکاوٹیں کھڑی کیں، جہاں مریض کی رازداری صرف ایک ترجیح نہیں، بلکہ ایک حکم ہے۔ ایک اہم سوال باقی رہا: کیا اوپن سورس AI کی ابھرتی ہوئی دنیا چیلنج کا مقابلہ کر سکتی ہے، کنٹرول اور رازداری پر سمجھوتہ کیے بغیر موازنہ طاقت پیش کر سکتی ہے؟

Harvard Medical School (HMS) کے معزز ہالوں سے ابھرنے والے حالیہ نتائج بتاتے ہیں کہ جواب ایک زبردست ہاں ہے، جو کلینیکل ماحول میں AI کے اطلاق میں ایک ممکنہ موڑ کا نشان ہے۔ محققین نے ایک معروف اوپن سورس ماڈل کا اس کے اعلیٰ پروفائل ملکیتی ہم منصب کے ساتھ احتیاط سے موازنہ کیا، ایسے نتائج سامنے لائے جو جدید تشخیصی امداد تک رسائی کو جمہوری بنا سکتے ہیں۔

تشخیصی میدان میں ایک نیا مدمقابل داخل ہوتا ہے

ایک مطالعہ میں جس نے طبی اور ٹیک دونوں برادریوں کی توجہ حاصل کی ہے، HMS کے محققین نے اوپن سورس Llama 3.1 405B ماڈل کو زبردست GPT-4 کے مدمقابل کھڑا کیا۔ جانچ کا میدان 70 چیلنجنگ میڈیکل کیس اسٹڈیز کا احتیاط سے تیار کردہ سیٹ تھا۔ یہ معمول کے منظرنامے نہیں تھے۔ وہ پیچیدہ تشخیصی پہیلیاں تھیں جو اکثر کلینیکل پریکٹس میں پیش آتی ہیں۔ مقصد واضح تھا: ہر AI ماڈل کی تشخیصی ذہانت کا سر بہ سر جائزہ لینا۔

حال ہی میں شائع ہونے والے نتائج حیران کن تھے۔ Llama 3.1 405B ماڈل، جو صارفین کے لیے ڈاؤن لوڈ، معائنہ اور ترمیم کے لیے آزادانہ طور پر دستیاب ہے، نے تشخیصی درستگی کا مظاہرہ کیا جو GPT-4 کے برابر تھی، اور کچھ میٹرکس میں اس سے بھی زیادہ تھی۔ خاص طور پر، جب ہر ماڈل کی طرف سے پیش کردہ ابتدائی تشخیصی تجویز کی درستگی کا جائزہ لیا گیا، تو Llama 3.1 405B کو برتری حاصل تھی۔ مزید برآں، جب کیس کی تفصیلات پر کارروائی کے بعد تجویز کردہ حتمی تشخیص پر غور کیا گیا، تو اوپن سورس مدمقابل نے ایک بار پھر قائم شدہ بینچ مارک کے خلاف اپنی قابلیت ثابت کی۔

یہ کامیابی صرف کارکردگی کے لیے ہی نہیں، بلکہ اس کی نمائندگی کے لیے بھی اہم ہے۔ پہلی بار، ایک آسانی سے قابل رسائی، شفاف اوپن سورس ٹول نے کیس اسٹڈیز کی بنیاد پر طبی تشخیص کے مطالباتی کام میں معروف کلوزڈ سورس سسٹمز کی طرح اعلیٰ سطح پر کام کرنے کی صلاحیت ثابت کی ہے۔ Arjun K. Manrai ’08، ایک HMS پروفیسر جنہوں نے تحقیق کی نگرانی کی، نے کارکردگی میں برابری کو ‘کافی قابل ذکر’ قرار دیا، خاص طور پر تاریخی تناظر کو دیکھتے ہوئے۔

اوپن سورس فائدہ: ڈیٹا پرائیویسی اور کسٹمائزیشن کو کھولنا

ہارورڈ کے مطالعے سے نمایاں ہونے والا حقیقی گیم چینجر اوپن سورس اور ملکیتی ماڈلز کے درمیان بنیادی فرق میں مضمر ہے: رسائی اور کنٹرول۔ GPT-4 جیسے ملکیتی ماڈلز عام طور پر صارفین سے پروسیسنگ کے لیے فراہم کنندہ کے سرورز پر ڈیٹا بھیجنے کا مطالبہ کرتے ہیں۔ صحت کی دیکھ بھال میں، یہ فوری طور پر خطرے کی گھنٹیاں بجاتا ہے۔ مریض کی معلومات - علامات، طبی تاریخ، ٹیسٹ کے نتائج - تصوراتی طور پر سب سے زیادہ حساس ڈیٹا میں سے ہیں، جو ریاستہائے متحدہ میں HIPAA جیسے سخت ضوابط سے محفوظ ہیں۔ اس ڈیٹا کو ہسپتال کے محفوظ نیٹ ورک سے باہر منتقل کرنے کا امکان، یہاں تک کہ جدید AI تجزیہ کے ممکنہ فائدے کے لیے بھی، ایک بڑی رکاوٹ رہا ہے۔

اوپن سورس ماڈلز، جیسے Llama 3.1 405B، اس حرکیات کو بنیادی طور پر تبدیل کرتے ہیں۔ چونکہ ماڈل کا کوڈ اور پیرامیٹرز عوامی طور پر دستیاب ہیں، ادارے اسے اپنے محفوظ انفراسٹرکچر کے اندر ڈاؤن لوڈ اور تعینات کر سکتے ہیں۔

  • ڈیٹا کی خودمختاری: ہسپتال AI کو مکمل طور پر اپنے مقامی سرورز یا نجی کلاؤڈز پر چلا سکتے ہیں۔ مریض کے ڈیٹا کو کبھی بھی ادارے کے محفوظ ماحول سے باہر جانے کی ضرورت نہیں ہوتی، مؤثر طریقے سے بیرونی ڈیٹا ٹرانسمیشن سے وابستہ رازداری کے خدشات کو ختم کیا جاتا ہے۔ اس تصور کو اکثر ‘ڈیٹا کو ماڈل تک بھیجنے’ کے بجائے ‘ماڈل کو ڈیٹا تک لانا’ کہا جاتا ہے۔
  • بہتر سیکیورٹی: عمل کو اندرون خانہ رکھنا تیسرے فریق AI فراہم کنندگان سے متعلق ممکنہ ڈیٹا کی خلاف ورزیوں کے لیے حملے کی سطح کو نمایاں طور پر کم کرتا ہے۔ آپریشنل ماحول پر کنٹرول مکمل طور پر صحت کی دیکھ بھال کے ادارے کے پاس رہتا ہے۔
  • شفافیت اور آڈیٹیبلٹی: اوپن سورس ماڈلز محققین اور معالجین کو ممکنہ طور پر ماڈل کے فن تعمیر کا معائنہ کرنے اور، کسی حد تک، مبہم ملکیتی نظاموں سے بہتر طور پر اس کے فیصلہ سازی کے عمل کو سمجھنے کی اجازت دیتے ہیں۔ یہ شفافیت زیادہ اعتماد کو فروغ دے سکتی ہے اور ڈیبگنگ یا اصلاح کو آسان بنا سکتی ہے۔

Thomas A. Buckley، ہارورڈ کے AI ان میڈیسن پروگرام میں پی ایچ ڈی کے طالب علم اور مطالعہ کے پہلے مصنف، نے اس اہم فائدے پر زور دیا۔ انہوں نے کہا، ‘اوپن سورس ماڈلز نئی سائنسی تحقیق کو کھولتے ہیں کیونکہ انہیں ہسپتال کے اپنے نیٹ ورک میں تعینات کیا جا سکتا ہے۔’ یہ صلاحیت نظریاتی امکانات سے آگے بڑھتی ہے اور عملی، محفوظ اطلاق کے لیے دروازہ کھولتی ہے۔

مزید برآں، اوپن سورس نوعیت کسٹمائزیشن کی بے مثال سطحوں کی اجازت دیتی ہے۔ ہسپتال اور تحقیقی گروپ اب ان طاقتور بیس ماڈلز کو اپنے مخصوص مریض ڈیٹا کا استعمال کرتے ہوئے ٹھیک بنا سکتے ہیں۔

  • آبادی کے لیے مخصوص ٹیوننگ: ایک ماڈل کو ہسپتال کے نظام کے ذریعہ پیش کردہ مخصوص مقامی یا علاقائی آبادی کی آبادیات، مروجہ بیماریوں، اور منفرد صحت کے چیلنجوں کی بہتر عکاسی کرنے کے لیے ڈھالا جا سکتا ہے۔
  • پروٹوکول الائنمنٹ: AI رویے کو ہسپتال کے مخصوص تشخیصی راستوں، علاج کے پروٹوکولز، یا رپورٹنگ کے معیارات کے ساتھ ہم آہنگ کرنے کے لیے ایڈجسٹ کیا جا سکتا ہے۔
  • خصوصی ایپلی کیشنز: محققین ماڈل کے انتہائی خصوصی ورژن تیار کر سکتے ہیں جو مخصوص طبی ڈومینز کے لیے تیار کیے گئے ہیں، جیسے ریڈیولوجی امیج تجزیہ تشریح سپورٹ، پیتھالوجی رپورٹ اسکریننگ، یا نایاب بیماری کے نمونوں کی شناخت۔

Buckley نے اس مضمرات پر تفصیل سے روشنی ڈالی: ‘محققین اب براہ راست مریض کے ڈیٹا کے ساتھ جدید ترین کلینیکل AI استعمال کر سکتے ہیں… ہسپتال مریض کے ڈیٹا کو کسٹم ماڈلز تیار کرنے کے لیے استعمال کر سکتے ہیں (مثال کے طور پر، اپنی مریض آبادی کے ساتھ ہم آہنگ کرنے کے لیے)۔’ اندرون خانہ محفوظ طریقے سے تیار کردہ بیسپوک AI ٹولز کا یہ امکان، ایک اہم پیش رفت کی نمائندگی کرتا ہے۔

سیاق و سباق: پیچیدہ معاملات میں AI کا شاک ویو

Llama 3.1 405B میں ہارورڈ ٹیم کی تحقیقات خلا میں نہیں کی گئیں۔ یہ جزوی طور پر پہلے کی تحقیق، خاص طور پر ایک قابل ذکر 2023 کے مقالے سے پیدا ہونے والی لہروں سے متاثر تھی۔ اس مطالعہ نے معزز New England Journal of Medicine (NEJM) میں شائع ہونے والے کچھ انتہائی پریشان کن کلینیکل کیسز سے نمٹنے میں GPT ماڈلز کی حیران کن مہارت کا مظاہرہ کیا۔ یہ NEJM ‘Case Records of the Massachusetts General Hospital’ طبی حلقوں میں افسانوی ہیں - پیچیدہ، اکثر حیران کن کیسز جو تجربہ کار معالجین کو بھی چیلنج کرتے ہیں۔

Buckley نے یاد کیا، ‘اس مقالے نے بہت زیادہ توجہ حاصل کی اور بنیادی طور پر یہ دکھایا کہ یہ بڑا لسانی ماڈل، ChatGPT، کسی نہ کسی طرح ان ناقابل یقین حد تک چیلنجنگ کلینیکل کیسز کو حل کر سکتا ہے، جس نے لوگوں کو حیران کر دیا۔’ یہ خیال کہ ایک AI، بنیادی طور پر ایک پیچیدہ پیٹرن میچنگ مشین جو وسیع مقدار میں متن پر تربیت یافتہ ہے، تشخیصی اسرار کو کھول سکتی ہے جس کے لیے اکثر گہری کلینیکل بصیرت اور تجربے کی ضرورت ہوتی ہے، دلچسپ اور، کچھ کے لیے، پریشان کن تھا۔

Buckley نے مزید کہا، ‘یہ کیسز بدنام زمانہ طور پر مشکل ہیں۔’ ‘یہ Mass General Hospital میں دیکھے جانے والے کچھ سب سے زیادہ چیلنجنگ کیسز ہیں، لہذا وہ معالجین کے لیے خوفناک ہیں، اور یہ اتنا ہی خوفناک ہے جب ایک AI ماڈل وہی کام کر سکتا ہے۔’ اس پہلے مظاہرے نے طب میں LLMs کی خام صلاحیت کو اجاگر کیا لیکن ملکیتی نظاموں میں موروثی رازداری اور کنٹرول کے مسائل کو حل کرنے کی فوری ضرورت کو بھی بڑھا دیا۔ اگر AI اتنا قابل ہو رہا تھا، تو یہ یقینی بنانا کہ اسے حقیقی مریض کے ڈیٹا کے ساتھ محفوظ اور اخلاقی طور پر استعمال کیا جا سکتا ہے، اولین ترجیح بن گیا۔

Meta کے Llama 3.1 405B ماڈل کا اجراء ایک ممکنہ اہم موڑ کی نمائندگی کرتا ہے۔ ماڈل کا سراسر پیمانہ - اس کے ‘405B’ سے ظاہر ہوتا ہے، جو 405 بلین پیرامیٹرز کا حوالہ دیتا ہے (وہ متغیرات جنہیں ماڈل تربیت کے دوران پیشین گوئیاں کرنے کے لیے ایڈجسٹ کرتا ہے) - نے اوپن سورس کمیونٹی کے اندر نفاست کی ایک نئی سطح کا اشارہ دیا۔ اس بڑے پیمانے نے تجویز کیا کہ اس میں GPT-4 جیسے اعلیٰ درجے کے ملکیتی ماڈلز کی کارکردگی کا مقابلہ کرنے کے لیے درکار پیچیدگی ہو سکتی ہے۔ Buckley نے وضاحت کرتے ہوئے کہا، ‘یہ ایک طرح سے پہلی بار تھا جب ہم نے غور کیا، اوہ، شاید اوپن سورس ماڈلز میں واقعی کچھ مختلف ہو رہا ہے،’ Llama 3.1 405B کو طبی ڈومین میں جانچنے کی ترغیب کی وضاحت کرتے ہوئے۔

مستقبل کی منصوبہ بندی: تحقیق اور حقیقی دنیا کا انضمام

اس بات کی تصدیق کہ اعلیٰ کارکردگی والے اوپن سورس ماڈلز حساس طبی کاموں کے لیے قابل عمل ہیں، گہرے مضمرات رکھتی ہے۔ جیسا کہ پروفیسر Manrai نے روشنی ڈالی، تحقیق ‘بہت سے نئے مطالعات اور آزمائشوں کو کھولتی اور کھولتی ہے۔’ بیرونی ڈیٹا شیئرنگ کی اخلاقی اور لاجسٹک رکاوٹوں کے بغیر، محفوظ ہسپتال نیٹ ورکس کے اندر براہ راست مریض کے ڈیٹا کے ساتھ کام کرنے کی صلاحیت، کلینیکل AI تحقیق کے لیے ایک بڑی رکاوٹ کو دور کرتی ہے۔

امکانات کا تصور کریں:

  • ریئل ٹائم فیصلہ سازی میں معاونت: AI ٹولز براہ راست الیکٹرانک ہیلتھ ریکارڈ (EHR) سسٹمز میں ضم کیے گئے ہیں، آنے والے مریض کے ڈیٹا کا ریئل ٹائم میں تجزیہ کرتے ہوئے ممکنہ تشخیص تجویز کرنے، اہم لیب ویلیوز کو فلیگ کرنے، یا ممکنہ منشیات کے تعاملات کی نشاندہی کرنے کے لیے، جبکہ ڈیٹا ہسپتال کے سسٹم کے اندر محفوظ رہتا ہے۔
  • تیز رفتار تحقیقی چکر: محققین بڑے، مقامی ڈیٹاسیٹس کا استعمال کرتے ہوئے AI مفروضوں کی تیزی سے جانچ اور اصلاح کر سکتے ہیں، ممکنہ طور پر نئے تشخیصی مارکرز یا علاج کی افادیت کی دریافت کو تیز کر سکتے ہیں۔
  • انتہائی خصوصی ٹولز کی ترقی: ٹیمیں مخصوص طبی خصوصیات یا مخصوص، پیچیدہ طریقہ کار کے لیے AI معاونین بنانے پر توجہ مرکوز کر سکتی ہیں، جو انتہائی متعلقہ داخلی ڈیٹا پر تربیت یافتہ ہوں۔

پیراڈائم بدل جاتا ہے، جیسا کہ Manrai نے اختصار کے ساتھ کہا: ‘ان اوپن سورس ماڈلز کے ساتھ، آپ ماڈل کو ڈیٹا تک لا سکتے ہیں، بجائے اس کے کہ آپ اپنا ڈیٹا ماڈل کو بھیجیں۔’ یہ لوکلائزیشن صحت کی دیکھ بھال کے اداروں اور محققین کو بااختیار بناتی ہے، سخت رازداری کے معیارات کو برقرار رکھتے ہوئے جدت طرازی کو فروغ دیتی ہے۔

ناگزیر انسانی عنصر: AI بطور کوپائلٹ، کپتان نہیں

Llama 3.1 405B جیسے AI ٹولز کی متاثر کن کارکردگی اور امید افزا صلاحیت کے باوجود، اس میں شامل محققین جوش و خروش کو حقیقت پسندی کی ایک اہم خوراک کے ساتھ معتدل کرنے میں جلدی کرتے ہیں۔ مصنوعی ذہانت، چاہے کتنی ہی نفیس کیوں نہ ہو، ابھی تک انسانی معالجین کا متبادل نہیں ہے - اور شاید کبھی نہیں ہوگی۔ Manrai اور Buckley دونوں نے زور دیا کہ انسانی نگرانی بالکل ضروری ہے۔

AI ماڈلز، بشمول LLMs، کی موروثی حدود ہیں:

  • حقیقی سمجھ کی کمی: وہ اپنے تربیتی ڈیٹا کی بنیاد پر پیٹرن کی شناخت اور معلومات کی ترکیب میں مہارت رکھتے ہیں، لیکن ان میں حقیقی کلینیکل بصیرت، عقل، اور مریض کی زندگی کے سیاق و سباق، جذباتی حالت، یا غیر زبانی اشاروں کی باریکیوں کو سمجھنے کی صلاحیت کی کمی ہے۔
  • تعصب کا امکان: AI ماڈلز اپنے تربیتی ڈیٹا میں موجود تعصبات کو وراثت میں لے سکتے ہیں، ممکنہ طور پر متعصبانہ سفارشات یا تشخیص کا باعث بن سکتے ہیں، خاص طور پر کم نمائندگی والے مریض گروپوں کے لیے۔ اوپن سورس ماڈلز یہاں ایک ممکنہ فائدہ پیش کرتے ہیں، کیونکہ تربیتی ڈیٹا اور عمل کا بعض اوقات زیادہ قریب سے جائزہ لیا جا سکتا ہے، لیکن خطرہ باقی رہتا ہے۔
  • ‘ہیلو سینیشنز’ اور غلطیاں: LLMs کبھی کبھار قابل فہم لگنے والی لیکن غلط معلومات پیدا کرنے کے لیے جانے جاتے ہیں (نام نہاد ‘ہیلو سینیشنز’)۔ طبی تناظر میں، ایسی غلطیوں کے سنگین نتائج ہو سکتے ہیں۔
  • نیا پن سنبھالنے میں ناکامی: اگرچہ وہ معلوم نمونوں پر کارروائی کر سکتے ہیں، AI بیماری کی حقیقی طور پر نئی پیشکشوں یا علامات کے منفرد امتزاج کے ساتھ جدوجہد کر سکتا ہے جو ان کے تربیتی ڈیٹا میں اچھی طرح سے نمائندگی نہیں کرتے ہیں۔

لہذا، معالجین اور دیگر صحت کی دیکھ بھال کرنے والے پیشہ ور افراد کا کردار کم نہیں ہوتا بلکہ بدل جاتا ہے۔ وہ اہم توثیق کرنے والے، ترجمان، اور حتمی فیصلہ ساز بن جاتے ہیں۔ Buckley نے وضاحت کی، ‘ہمارے کلینیکل ساتھی واقعی اہم رہے ہیں، کیونکہ وہ پڑھ سکتے ہیں کہ ماڈل کیا پیدا کرتا ہے اور اس کا معیار کے لحاظ سے جائزہ لے سکتے ہیں۔’ AI کا آؤٹ پٹ محض ایک تجویز ہے، ڈیٹا کا ایک ٹکڑا جس کا وسیع تر کلینیکل تصویر کے اندر تنقیدی جائزہ لیا جانا ہے۔ ‘یہ نتائج صرف اس وقت قابل اعتماد ہوتے ہیں جب آپ انہیں معالجین سے جانچوا سکیں۔’

Manrai نے اس جذبے کی بازگشت کی، AI کو ایک خود مختار تشخیصی ماہر کے طور پر نہیں، بلکہ ایک قیمتی معاون کے طور پر تصور کیا۔ ایک پچھلی پریس ریلیز میں، انہوں نے ان ٹولز کو ‘مصروف معالجین کے لیے انمول کوپائلٹ’ کے طور پر پیش کیا، بشرطیکہ انہیں ‘عقلمندی سے استعمال کیا جائے اور موجودہ صحت کے بنیادی ڈھانچے میں ذمہ داری سے شامل کیا جائے’۔ کلید سوچ سمجھ کر انضمام میں مضمر ہے، جہاں AI انسانی صلاحیتوں کو بڑھاتا ہے - شاید وسیع مریض کی تاریخوں کا فوری خلاصہ کرکے، پیچیدہ معاملات کے لیے امتیازی تشخیص تجویز کرکے، یا ممکنہ خطرات کو جھنڈا لگا کر - بجائے اس کے کہ معالج کے فیصلے کو ختم کرنے کی کوشش کرے۔

Manrai نے خبردار کیا، ‘لیکن یہ اہم ہے کہ معالجین ان کوششوں کو آگے بڑھانے میں مدد کریں تاکہ یہ یقینی بنایا جا سکے کہ AI ان کے لیے کام کرتا ہے۔’ کلینیکل AI کی ترقی اور تعیناتی ایک باہمی تعاون پر مبنی کوشش ہونی چاہیے، جس کی رہنمائی مریضوں کی دیکھ بھال کے محاذ پر موجود افراد کی ضروریاتاور مہارت سے ہو، اس بات کو یقینی بناتے ہوئے کہ ٹیکنالوجی طب کی مشق کو حکم دینے کے بجائے خدمت کرے۔ ہارورڈ کا مطالعہ ظاہر کرتا ہے کہ طاقتور، محفوظ ٹولز دستیاب ہو رہے ہیں۔ اگلا اہم قدم انہیں ذمہ داری سے استعمال کرنا ہے۔