‘اوپن سورس’ کی اصطلاح کبھی ایک خاص وضاحت کے ساتھ گونجتی تھی، مشترکہ علم اور باہمی تعاون سے ترقی کا وعدہ جس نے لاتعداد سائنسی اور تکنیکی چھلانگوں کو آگے بڑھایا۔ اس نے کمیونٹیز کی ایک ساتھ تعمیر کرنے، ایک دوسرے کے کام کی جانچ پڑتال کرنے، اور عظیم لوگوں کے کندھوں پر کھڑے ہونے کی تصاویر پیش کیں کیونکہ بلیو پرنٹس آزادانہ طور پر دستیاب تھے۔ اب، مصنوعی ذہانت (Artificial Intelligence) کے منظر نامے پر تشریف لاتے ہوئے، یہ اصطلاح تیزی سے… پھسلتی ہوئی محسوس ہوتی ہے۔ جیسا کہ Nature کے صفحات میں روشنی ڈالی گئی ہے اور لیبز اور بورڈ رومز میں سرگوشیاں کی جا رہی ہیں، AI گولڈ رش میں کھلاڑیوں کی ایک تشویشناک تعداد اپنی تخلیقات کو ‘اوپن سورس’ کے لبادے میں چھپا رہی ہے جبکہ واقعی اہم اجزاء کو تالے اور چابی کے نیچے رکھا ہوا ہے۔ یہ صرف ایک معنوی بحث نہیں ہے؛ یہ ایک ایسا عمل ہے جو سائنسی سالمیت کی بنیادوں کو کھوکھلا کرتا ہے اور مستقبل کی جدت طرازی کی راہ کو دھندلا دینے کا خطرہ ہے۔ تحقیقی برادری، وہی گروہ جو سب سے زیادہ حاصل کرنے یا کھونے والا ہے، کو اس ڈھونگ کو پہچاننے کی ضرورت ہے کہ یہ کیا ہے اور ان AI سسٹمز کے لیے زبردستی وکالت کرنے کی ضرورت ہے جو واقعی شفافیت اور تولیدی صلاحیت کے ان اصولوں کو مجسم کرتے ہیں جن پر ہم طویل عرصے سے انحصار کرتے آئے ہیں۔
کھلے پن کا سنہری دور: ایک وراثت خطرے میں
دہائیوں سے، اوپن سورس تحریک سائنسی ترقی کی ایک گمنام ہیرو رہی ہے۔ شماریاتی جادوگری کے لیے R Studio یا سیال حرکیات کی ماڈلنگ کے لیے OpenFOAM جیسے مانوس ٹولز سے آگےسوچیں۔ Linux جیسے بنیادی نظاموں پر غور کریں، جو انٹرنیٹ اور سائنسی کمپیوٹنگ کلسٹرز کے وسیع حصوں کو طاقت فراہم کرتے ہیں، یا Apache ویب سرور، جو باہمی تعاون پر مبنی سافٹ ویئر ڈویلپمنٹ کا ثبوت ہے۔ فلسفہ سیدھا تھا: سورس کوڈ تک رسائی فراہم کریں، اجازت دینے والے لائسنسوں کے تحت ترمیم اور دوبارہ تقسیم کی اجازت دیں، اور ایک عالمی ماحولیاتی نظام کو فروغ دیں جہاں بہتری سب کو فائدہ پہنچائے۔
یہ محض انسان دوستی نہیں تھی؛ یہ عملی ذہانت تھی۔ کھلے پن نے دریافت کو تیز کیا۔ محققین تجربات کو دہرا سکتے تھے، نتائج کی توثیق کر سکتے تھے، اور پہیے کو دوبارہ ایجاد کیے بغیر یا غیر شفاف ملکیتی نظاموں میں تشریف لائے بغیر موجودہ کام پر تعمیر کر سکتے تھے۔ اس نے اعتماد کو فروغ دیا، کیونکہ اندرونی کام معائنہ کے لیے دستیاب تھے، جس سے کیڑے اجتماعی طور پر تلاش اور ٹھیک کیے جا سکتے تھے۔ اس نے رسائی کو جمہوری بنایا، دنیا بھر کے سائنسدانوں اور ڈویلپرز کو، ادارہ جاتی وابستگی یا بجٹ سے قطع نظر، جدید کام میں حصہ لینے کے قابل بنایا۔ یہ باہمی تعاون کا جذبہ، مشترکہ رسائی اور باہمی جانچ پڑتال پر مبنی، خود سائنسی طریقہ کار میں گہرائی سے سرایت کر گیا، جس سے مضبوطی کو یقینی بنایا گیا اور متنوع شعبوں میں تیزی سے ترقی کو فروغ ملا۔ استعمال کیے جانے والے ٹولز کو الگ کرنے، سمجھنے اور ان میں ترمیم کرنے کی صلاحیت سب سے اہم تھی۔ یہ صرف سافٹ ویئر استعمال کرنے کے بارے میں نہیں تھا؛ یہ سمجھنے کے بارے میں تھا کہ یہ کیسے کام کرتا ہے، کسی مخصوص سائنسی کام کے لیے اس کی مناسبیت کو یقینی بنانا، اور اجتماعی علمی پول میں واپس حصہ ڈالنا۔ اس نیک چکر نے بے مثال رفتار سے جدت طرازی کو آگے بڑھایا۔
AI کا ڈیٹا پر انحصار: ‘کوڈ ہی بادشاہ ہے’ کیوں ناکافی ہے
بڑے پیمانے پر مصنوعی ذہانت (Artificial Intelligence) کے دور میں داخل ہوں، خاص طور پر وہ بنیادی ماڈلز جو بہت زیادہ توجہ اور سرمایہ کاری حاصل کرتے ہیں۔ یہاں، روایتی اوپن سورس پیراڈائم، جو بنیادی طور پر سورس کوڈ پر مرکوز ہے، ایک بنیادی عدم مطابقت کا سامنا کرتا ہے۔ اگرچہ AI ماڈل بنانے کے لیے استعمال ہونے والے الگورتھم اور کوڈ یقینی طور پر تصویر کا حصہ ہیں، لیکن وہ پوری کہانی سے بہت دور ہیں۔ جدید AI، خاص طور پر ڈیپ لرننگ ماڈلز، ڈیٹا کے بھوکے صارف ہیں۔ تربیتی ڈیٹا صرف ایک ان پٹ نہیں ہے؛ یہ دلیل کے طور پر ماڈل کی صلاحیتوں، تعصبات اور حدود کا بنیادی تعین کنندہ ہے۔
ماڈل کا کوڈ، یا یہاں تک کہ اس کے حتمی تربیت یافتہ پیرامیٹرز (‘وزن’) جاری کرنا، تربیت کے لیے استعمال ہونے والے بڑے ڈیٹا سیٹس تک بامعنی رسائی یا تفصیلی معلومات فراہم کیے بغیر، کسی کو کار کی چابیاں دینے جیسا ہے لیکن یہ بتانے سے انکار کرنا کہ یہ کس قسم کا ایندھن لیتا ہے، اسے کہاں چلایا گیا ہے، یا انجن اصل میں کیسے اسمبل کیا گیا تھا۔ آپ اسے چلا سکتے ہیں، لیکن آپ اس کی کارکردگی کی خامیوں کو سمجھنے، ممکنہ مسائل کی تشخیص کرنے، یا نئے سفر کے لیے اسے قابل اعتماد طریقے سے تبدیل کرنے کی محدود صلاحیت رکھتے ہیں۔
مزید برآں، ان ماڈلز کو شروع سے تربیت دینے کے لیے درکار کمپیوٹیشنل وسائل بہت زیادہ ہیں، جو اکثر ایک ہی تربیتی رن کے لیے لاکھوں ڈالر تک پہنچ جاتے ہیں۔ یہ ایک اور رکاوٹ پیدا کرتا ہے۔ یہاں تک کہ اگر کوڈ اور ڈیٹا مکمل طور پر دستیاب ہوتے، تب بھی صرف مٹھی بھر تنظیمیں ہی تربیتی عمل کو نقل کرنے کے لیے انفراسٹرکچر رکھتی ہیں۔ یہ حقیقت روایتی سافٹ ویئر کے مقابلے میں حرکیات کو بنیادی طور پر تبدیل کر دیتی ہے، جہاں کوڈ مرتب کرنا عام طور پر زیادہ تر ڈویلپرز یا محققین کی پہنچ میں ہوتا ہے۔ AI کے لیے، حقیقی تولیدی صلاحیت اور دوبارہ تربیت کے ذریعے تجربہ کرنے کی صلاحیت اکثر ناقابل حصول رہتی ہے، یہاں تک کہ جب اجزاء کو ‘اوپن’ کا لیبل لگایا جاتا ہے۔ لہذا، کوڈ کے لیے تصور کیے گئے پرانے اوپن سورس تعریفوں کو محض لاگو کرنا اس نئے، ڈیٹا سینٹرک اور کمپیوٹ-انٹینسیو ڈومین کی ضروریات کو پورا نہیں کرتا ہے۔
‘اوپن واشنگ’: بھیڑ کی کھال میں بھیڑیا
روایتی اوپن سورس تصورات اور AI ڈویلپمنٹ کی حقیقتوں کے درمیان یہ فرق ایک ایسے رجحان کے لیے زرخیز زمین پیدا کرتا ہے جسے ‘اوپن واشنگ’ کہا جاتا ہے۔ کمپنیاں اپنے AI ماڈلز پر ‘اوپن سورس’ کا لیبل لگانے کے لیے بے تاب ہیں، اس اصطلاح سے وابستہ عوامی تعلقات کے فوائد اور خیر سگالی حاصل کر رہی ہیں، جبکہ ایسے لائسنس یا رسائی کی پابندیاں استعمال کر رہی ہیں جو حقیقی کھلے پن کی روح، اگر سخت (اور دلیل کے طور پر پرانی) تعریف نہیں، تو اس سے دھوکہ دیتی ہیں۔
عملی طور پر یہ کیسا لگتا ہے؟
- ڈیٹا کے بغیر کوڈ کا اجراء: ایک کمپنی ماڈل کے آرکیٹیکچر کوڈ اور شاید پہلے سے تربیت یافتہ وزن بھی جاری کر سکتی ہے، جس سے دوسروں کو ماڈل کو ‘جیسا ہے’ استعمال کرنے یا اسے چھوٹے ڈیٹا سیٹس پر فائن ٹیون کرنے کی اجازت ملتی ہے۔ تاہم، بڑے پیمانے پر، بنیادی تربیتی ڈیٹا سیٹ – وہ خفیہ چٹنی جو ماڈل کی بنیادی صلاحیتوں کی وضاحت کرتی ہے – ملکیتی اور پوشیدہ رہتا ہے۔
- پابندی والا لائسنسنگ: ماڈلز ایسے لائسنسوں کے تحت جاری کیے جا سکتے ہیں جو پہلی نظر میں کھلے دکھائی دیتے ہیں لیکن ان میں ایسی شقیں ہوتی ہیں جو تجارتی استعمال کو محدود کرتی ہیں، مخصوص منظرناموں میں تعیناتی پر پابندی لگاتی ہیں، یا مخصوص قسم کی ترمیم یا تجزیہ سے منع کرتی ہیں۔ یہ پابندیاں عام طور پر اوپن سورس سافٹ ویئر سے وابستہ آزادیوں کے خلاف ہیں۔
- مبہم ڈیٹا کا انکشاف: ڈیٹا کے ذرائع، جمع کرنے کے طریقوں، صفائی کے عمل، اور ممکنہ تعصبات کے بارے میں تفصیلی معلومات کے بجائے، کمپنیاں مبہم وضاحتیں پیش کر سکتی ہیں یا اہم تفصیلات کو مکمل طور پر چھوڑ سکتی ہیں۔ ‘ڈیٹا شفافیت’ کی یہ کمی ماڈل کی وشوسنییتا یا اخلاقی مضمرات کا مکمل جائزہ لینا ناممکن بنا دیتی ہے۔
ایسے طریقوں میں کیوں مشغول ہوں؟ محرکات ممکنہ طور پر مختلف ہیں۔ ‘اوپن سورس’ کے مثبت مفہوم بلاشبہ ٹیلنٹ کو راغب کرنے، ڈویلپر کمیونٹیز بنانے (چاہے محدود ہوں)، اور سازگار پریس پیدا کرنے کے لیے قیمتی ہیں۔ زیادہ طنزیہ طور پر، جیسا کہ Nature تجویز کرتا ہے، ریگولیٹری مراعات ہو سکتی ہیں۔ مثال کے طور پر، یورپی یونین کا جامع 2024 AI ایکٹ، اوپن سورس کے طور پر درجہ بند نظاموں کے لیے ممکنہ چھوٹ یا ہلکی ضروریات شامل کرتا ہے۔ لیبل کو حکمت عملی سے استعمال کرکے، کچھ فرمیں کم رگڑ کے ساتھ پیچیدہ ریگولیٹری منظرناموں میں تشریف لانے کی امید کر سکتی ہیں، ممکنہ طور پر طاقتور، عمومی مقصد والے AI سسٹمز کے لیے جانچ پڑتال سے بچ سکتی ہیں۔ یہ اسٹریٹجک برانڈنگ مشق اوپن سورس تحریک کی تاریخی خیر سگالی کا استحصال کرتی ہے جبکہ ممکنہ طور پر ذمہ دار AI تعیناتی کو یقینی بنانے کی کوششوں کو کمزور کرتی ہے۔
کھلے پن کا ایک سپیکٹرم: نمائشوں کا جائزہ
یہ تسلیم کرنا بہت ضروری ہے کہ AI میں کھلا پن لازمی طور پر ایک بائنری حالت نہیں ہے؛ یہ ایک سپیکٹرم پر موجود ہے۔ تاہم، موجودہ لیبلنگ کے طریقے اکثر اس بات کو دھندلا دیتے ہیں کہ کوئی خاص ماڈل واقعی اس سپیکٹرم پر کہاں بیٹھتا ہے۔
اس تناظر میں اکثر زیر بحث آنے والی کچھ نمایاں مثالوں پر غور کریں:
- Meta کا Llama سیریز: جبکہ Meta نے Llama ماڈلز کے لیے وزن اور کوڈ جاری کیا، رسائی کے لیے ابتدائی طور پر درخواست کی ضرورت تھی، اور لائسنس میں پابندیاں شامل تھیں، خاص طور پر بہت بڑی کمپنیوں کے استعمال اور مخصوص ایپلی کیشنز سے متعلق۔ تنقیدی طور پر، بنیادی تربیتی ڈیٹا جاری نہیں کیا گیا، جس سے مکمل تولیدی صلاحیت اور اس کی خصوصیات کا گہرا تجزیہ محدود ہو گیا۔ اگرچہ بعد کے ورژنوں نے شرائط کو ایڈجسٹ کیا ہے، ڈیٹا کی دھندلاپن کا بنیادی مسئلہ اکثر برقرار رہتا ہے۔
- Microsoft کا Phi-2: Microsoft نے Phi-2 کو ایک ‘اوپن سورس’ چھوٹے لینگویج ماڈل کے طور پر پیش کیا۔ اگرچہ ماڈل کے وزن دستیاب ہیں، لائسنس میں مخصوص استعمال کی حدود ہیں، اور اس کے تربیتی ڈیٹا سیٹ کے بارے میں تفصیلی معلومات، جو اس کی صلاحیتوں اور ممکنہ تعصبات کو سمجھنے کے لیے اہم ہیں (خاص طور پر ‘مصنوعی’ ڈیٹا پر اس کی تربیت کو دیکھتے ہوئے)، مکمل طور پر شفاف نہیں ہیں۔
- Mistral AI کا Mixtral: یہ ماڈل، جو ایک ممتاز یورپی AI اسٹارٹ اپ نے جاری کیا ہے، نے اپنی کارکردگی کی وجہ سے توجہ حاصل کی۔ اگرچہ اجزاء ایک اجازت دینے والے Apache 2.0 لائسنس (کوڈ/وزن کے لیے واقعی ایک کھلا لائسنس) کے تحت جاری کیے گئے تھے، تربیتی ڈیٹا کی تشکیل اور کیوریشن کے عمل کے حوالے سے مکمل شفافیت محدود ہے، جو گہری سائنسی جانچ پڑتال میں رکاوٹ ہے۔
ان کا موازنہ ان اقدامات سے کریں جو روایتی اوپن سورس اصولوں کے ساتھ زیادہ سے زیادہ ہم آہنگی کے لیے کوشاں ہیں:
- Allen Institute for AI کا OLMo: اس پروجیکٹ کا واضح مقصد ایک واقعی کھلا لینگویج ماڈل بنانا تھا، جس میں نہ صرف ماڈل کے وزن اور کوڈ بلکہ تربیتی ڈیٹا (Dolma ڈیٹا سیٹ) اور تفصیلی تربیتی لاگز کے اجراء کو ترجیح دی گئی۔ یہ عزم وسیع تر تحقیقی برادری کے ذریعہ تولیدی صلاحیت اور تجزیہ کی بے مثال سطحوں کی اجازت دیتا ہے۔
- LLM360 کا CrystalCoder: یہ کمیونٹی پر مبنی کوشش اسی طرح ماڈل ڈویلپمنٹ لائف سائیکل کے تمام اجزاء کو جاری کرنے پر زور دیتی ہے، بشمول انٹرمیڈیٹ چیک پوائنٹس اور ڈیٹا اور تربیتی عمل کے بارے میں تفصیلی دستاویزات، شفافیت کی ایک ایسی سطح کو فروغ دینا جو اکثر کارپوریٹ ریلیز میں غائب ہوتی ہے۔
یہ متضاد مثالیں اس بات پر روشنی ڈالتی ہیں کہ AI میں حقیقی کھلا پن ممکن ہے، لیکن اس کے لیے محض کوڈ یا وزن جاری کرنے سے آگے ایک دانستہ عزم کی ضرورت ہے۔ یہ ڈیٹا اور عمل کے بارے میں شفافیت کا مطالبہ کرتا ہے، اس جانچ پڑتال کو قبول کرتا ہے جو اس کے ساتھ آتی ہے۔ ‘اوپن واشنگ’ کے ذریعے پیدا ہونے والی موجودہ ابہام محققین کے لیے یہ جاننا مشکل بنا دیتی ہے کہ کون سے ٹولز واقعی کھلی سائنسی تحقیقات کی حمایت کرتے ہیں۔
اعتماد کا خاتمہ: سائنسی سالمیت داؤ پر
اس وسیع پیمانے پر ‘اوپن واشنگ’ کے مضمرات محض برانڈنگ سے کہیں زیادہ ہیں۔ جب محققین AI ماڈلز پر انحصار کرتے ہیں جن کے اندرونی کام، خاص طور پر وہ ڈیٹا جس پر انہیں تربیت دی گئی تھی، غیر شفاف ہوتے ہیں، تو یہ سائنسی طریقہ کار کے دل پر حملہ کرتا ہے۔
- تولیدی صلاحیت کمزور: سائنسی اعتبار کا ایک سنگ بنیاد آزاد محققین کی نتائج کو دوبارہ پیش کرنے کی صلاحیت ہے۔ اگر تربیتی ڈیٹا اور عین مطابق تربیتی طریقہ کار نامعلوم ہیں، تو حقیقی نقل ناممکن ہو جاتی ہے۔ محققین پہلے سے تربیت یافتہ ماڈل استعمال کر سکتے ہیں، لیکن وہ اس کی تعمیر کی تصدیق نہیں کر سکتے یا پوشیدہ ڈیٹا سے حاصل کردہ اس کی بنیادی خصوصیات کی تحقیقات نہیں کر سکتے۔
- تصدیق میں رکاوٹ: سائنسدان کسی ماڈل کے آؤٹ پٹ پر کیسے بھروسہ کر سکتے ہیں اگر وہ اس ڈیٹا کا معائنہ نہیں کر سکتے جس سے اس نے سیکھا ہے؟ تربیتی ڈیٹا میں شامل پوشیدہ تعصبات، غلطیاں، یا اخلاقی خدشات لامحالہ ماڈل کے رویے میں ظاہر ہوں گے، پھر بھی شفافیت کے بغیر، ان خامیوں کا پتہ لگانا، تشخیص کرنا، یا کم کرنا مشکل ہے۔ سائنسی دریافت کے لیے ایسے بلیک باکسز کا استعمال غیر یقینی صورتحال کی ناقابل قبول سطح متعارف کراتا ہے۔
- جدت طرازی کا گلا گھونٹنا: سائنس پچھلے کام پر تعمیر کرکے ترقی کرتی ہے۔ اگر بنیادی ماڈلز پابندیوں کے ساتھ یا ضروری شفافیت کے بغیر (خاص طور پر ڈیٹا کے حوالے سے) جاری کیے جاتے ہیں، تو یہ دوسروں کی جدت طرازی، متبادل تربیتی نظاموں کے ساتھ تجربہ کرنے، یا ماڈلز کو نئے سائنسی ایپلی کیشنز کے لیے ان طریقوں سے ڈھالنے کی صلاحیت میں رکاوٹ بنتا ہے جن کا اصل تخلیق کاروں نے تصور بھی نہیں کیا ہوگا۔ ترقی ان نیم غیر شفاف نظاموں کے فراہم کنندگان کے ذریعے محدود ہو جاتی ہے۔
بند یا جزوی طور پر بند کارپوریٹ سسٹمز پر انحصار محققین کو فعال شرکاء اور اختراع کاروں کے بجائے ایک غیر فعال صارف کے کردار میں مجبور کرتا ہے۔ یہ ایک ایسے مستقبل کی تخلیق کا خطرہ مول لیتا ہے جہاں اہم سائنسی انفراسٹرکچر چند بڑی تنظیموں کے زیر کنٹرول ہو، جو ممکنہ طور پر کھلی سائنسی تحقیقات کی ضروریات پر تجارتی مفادات کو ترجیح دیتی ہیں۔ شفافیت کا یہ کٹاؤ براہ راست جدید تحقیق کی بنیاد بننے والے ٹولز میں اعتماد کے کٹاؤ میں ترجمہ ہوتا ہے۔
مارکیٹ کا ارتکاز اور جدت طرازی پر ٹھنڈا اثر
سائنسی عمل پر فوری اثرات سے ہٹ کر، AI میں جعلی اوپن سورس کا پھیلاؤ اہم اقتصادی اور مارکیٹ مضمرات رکھتا ہے۔ بڑے بنیادی ماڈلز کی ترقی کے لیے نہ صرف اہم مہارت بلکہ وسیع ڈیٹا سیٹس اور بے پناہ کمپیوٹیشنل طاقت تک رسائی کی بھی ضرورت ہوتی ہے – یہ وسائل بڑی ٹیکنالوجی کارپوریشنوں کے پاس غیر متناسب طور پر موجود ہیں۔
جب یہ کارپوریشنیں ‘اوپن سورس’ بینر کے تحت ماڈلز جاری کرتی ہیں لیکن اہم تربیتی ڈیٹا پر کنٹرول برقرار رکھتی ہیں یا پابندی والے لائسنس عائد کرتی ہیں، تو یہ ایک غیر مساوی کھیل کا میدان بناتا ہے۔
- داخلے میں رکاوٹیں: اسٹارٹ اپس اور چھوٹی تحقیقی لیبز کے پاس شروع سے تقابلی بنیادی ماڈلز بنانے کے لیے وسائل کی کمی ہوتی ہے۔ اگر موجودہ کمپنیوں کی طرف سے جاری کردہ قیاسی طور پر ‘کھلے’ ماڈلز شرائط کے ساتھ آتے ہیں (جیسے تجارتی استعمال کی پابندیاں یا ڈیٹا کی دھندلاپن جو گہری ترمیم کو روکتی ہے)، تو یہ ان چھوٹے کھلاڑیوں کی مؤثر طریقے سے مقابلہ کرنے یا حقیقی طور پر اختراعی ایپلی کیشنز بنانے کی صلاحیت کو محدود کرتا ہے۔
- موجودہ کمپنیوں کو مضبوط کرنا: ‘اوپن واشنگ’ ایک اسٹریٹجک کھائی کے طور پر کام کر سکتی ہے۔ ایسے ماڈلز جاری کرکے جو مفید ہیں لیکن واقعی کھلے نہیں ہیں، بڑی کمپنیاں اپنی ٹیکنالوجی پر منحصر ماحولیاتی نظام کو فروغ دے سکتی ہیں جبکہ حریفوں کو ان کے بنیادی اثاثوں (ڈیٹا اور بہتر تربیتی عمل) کو مکمل طور پر نقل کرنے یا نمایاں طور پر بہتر بنانے سے روکتی ہیں۔ یہ کھلے پن کی طرح لگتا ہے لیکن ایک کنٹرول شدہ پلیٹ فارم حکمت عملی کے قریب کام کرتا ہے۔
- طریقوں کے تنوع میں کمی: اگر جدت طرازی چند غالب، نیم غیر شفاف بنیادی ماڈلز پر بہت زیادہ انحصار کرتی ہے، تو یہ AI ڈویلپمنٹ کی یکسانیت کا باعث بن سکتی ہے، ممکنہ طور پر متبادل آرکیٹیکچرز، تربیتی پیراڈائمز، یا ڈیٹا حکمت عملیوں کو نظر انداز کر سکتی ہے جنہیں چھوٹے، آزاد گروہ دریافت کر سکتے ہیں اگر میدان واقعی کھلا ہوتا۔
حقیقی اوپن سورس تاریخی طور پر مسابقت اور تقسیم شدہ جدت طرازی کا ایک طاقتور انجن رہا ہے۔ AI میں موجودہ رجحان طاقت کو مرتکز کرنے اور اسی حرکیات کا گلا گھونٹنے کا خطرہ مول لیتا ہے جسے کھلے تعاون کو فروغ دینا ہے، ممکنہ طور پر ایک کم متحرک اور زیادہ مرکزی طور پر کنٹرول شدہ AI منظر نامے کا باعث بنتا ہے۔
ریگولیٹری بلائنڈ سپاٹس اور اخلاقی تنگ رسی
‘اوپن واشنگ’ کی ریگولیٹری خامیوں سے فائدہ اٹھانے کی صلاحیت، خاص طور پر EU AI ایکٹ جیسے فریم ورک کے حوالے سے، قریبی جانچ کی مستحق ہے۔ اس ایکٹ کا مقصد AI سسٹمز کے لیے خطرے پر مبنی ضوابط قائم کرنا ہے، جو زیادہ خطرے والی ایپلی کیشنز پر سخت تقاضے عائد کرتا ہے۔ اوپن سورس AI کے لیے چھوٹ یا ہلکی ذمہ داریوں کا مقصد جدت طرازی کو فروغ دینا اور اوپن سورس کمیونٹی پر زیادہ بوجھ ڈالنے سے بچنا ہے۔
تاہم، اگر کمپنیاں حقیقی شفافیت (خاص طور پر ڈیٹا اور تربیت کے حوالے سے) سے محروم ماڈلز کے لیے کامیابی سے ‘اوپن سورس’ کا دعویٰ کر سکتی ہیں، تو وہ اہم حفاظتی اقدامات کو نظرانداز کر سکتی ہیں۔ یہ اہم سوالات اٹھاتا ہے:
- بامعنی جانچ پڑتال: کیا ریگولیٹرز کسی طاقتور AI ماڈل کے خطرات کا مناسب اندازہ لگا سکتے ہیں اگر اس کا تربیتی ڈیٹا – اس کے رویے اور ممکنہ تعصبات کا ایک کلیدی تعین کنندہ – نظروں سے اوجھل ہو؟ غلط لیبلنگ ممکنہ طور پر زیادہ خطرے والے نظاموں کو کم نگرانی کے ساتھ کام کرنے کی اجازت دے سکتی ہے۔
- احتساب کے خلا: جب چیزیں غلط ہوتی ہیں – اگر کوئی ماڈل نقصان دہ تعصب ظاہر کرتا ہے یا خطرناک آؤٹ پٹ پیدا کرتا ہے – تو کون جوابدہ ہے اگر بنیادی ڈیٹا اور تربیتی عمل غیر شفاف ہیں؟ حقیقی کھلا پن تحقیقات اور احتساب میں سہولت فراہم کرتا ہے؛ ‘اوپن واشنگ’ اسے دھندلا دیتی ہے۔
- اخلاقی گورننس: AI کو ذمہ داری سے تعینات کرنے کے لیے اس کی حدود اور ممکنہ سماجی اثرات کو سمجھنے کی ضرورت ہے۔ یہ سمجھ بنیادی طور پر اس وقت سمجھوتہ کر جاتی ہے جب تربیتی ڈیٹا جیسے بنیادی اجزاء کو خفیہ رکھا جاتا ہے۔ یہ آزاد آڈٹ، تعصب کی تشخیص، اور اخلاقی جائزوں کو نمایاں طور پر زیادہ چیلنجنگ، اگر ناممکن نہیں تو، بنا دیتا ہے۔
ضابطے میں تشریف لانے کے لیے ‘اوپن سورس’ لیبل کا اسٹریٹجک استعمال صرف ایک قانونی چال نہیں ہے؛ اس کے گہرے اخلاقی مضمرات ہیں۔ یہ عوامی اعتماد کو کمزور کرنے اور اس بات کو یقینی بنانے کی کوششوں میں رکاوٹ ڈالنے کا خطرہ مول لیتا ہے کہ AI کی ترقی محفوظ، منصفانہ اور جوابدہ انداز میں آگے بڑھے۔ اس لیے یہ یقینی بنانا کہ ‘اوپن سورس AI’ کی ریگولیٹری تعریفیں حقیقی شفافیت کے اصولوں سے ہم آہنگ ہوں، سب سے اہم ہے۔
حقیقی AI کھلے پن کی طرف ایک راستہ بنانا
خوش قسمتی سے، خطرے کی گھنٹیاں بج رہی ہیں، اور AI کے دور میں ‘اوپن سورس’ کے معنی کو دوبارہ حاصل کرنے کی کوششیں جاری ہیں۔ Open Source Initiative (OSI)، جو اوپن سورس تعریفوں کا ایک دیرینہ نگران ہے، نے اوپن سورس AI کے لیے واضح معیارات قائم کرنے کے لیے ایک عالمی مشاورتی عمل کی قیادت کی ہے (جس کے نتیجے میں OSAID 1.0 تعریف سامنے آئی ہے)۔
اس کوشش میں ایک کلیدی جدت ‘ڈیٹا انفارمیشن’ کا تصور ہے۔ یہ تسلیم کرتے ہوئے کہ بڑے پیمانے پر خام ڈیٹا سیٹس جاری کرنا کچھ معاملات میں قانونی یا لاجسٹک طور پر ناقابل عمل ہو سکتا ہے (رازداری، کاپی رائٹ، یا سراسر پیمانے کی وجہ سے)، OSAID فریم ورک ڈیٹا کے بارے میں جامع انکشاف کی ضرورت پر زور دیتا ہے۔ اس میں تفصیلات شامل ہیں:
- ذرائع: ڈیٹا کہاں سے آیا؟
- خصوصیات: یہ کس قسم کا ڈیٹا ہے (متن، تصاویر، کوڈ)؟ اس کی شماریاتی خصوصیات کیا ہیں؟
- تیاری: ڈیٹا کو کیسے جمع، فلٹر، صاف، اور پہلے سے پروسیس کیا گیا؟ تعصب کو کم کرنے کے لیے کیا اقدامات کیے گئے؟
شفافیت کی یہ سطح، یہاں تک کہ خام ڈیٹا کے بغیر بھی، محققین کو ماڈل کی ممکنہ صلاحیتوں، حدود، اور ممکنہ تعصبات کو سمجھنے کے لیے اہم سیاق و سباق فراہم کرتی ہے۔ یہ موجودہ رکاوٹوں کے اندر زیادہ سے زیادہ شفافیت پر زور دیتے ہوئے، ایک عملی سمجھوتہ کی نمائندگی کرتا ہے۔ OSI کے ساتھ ساتھ، Open Future جیسی تنظیمیں ‘ڈیٹا کامنز’ ماڈل کی طرف ایک وسیع تر تبدیلی کی وکالت کر رہی ہیں، AI تربیت کے لیے مشترکہ، اخلاقی طور پر حاصل کردہ، اور کھلے عام قابل رسائی ڈیٹا سیٹس بنانے کے طریقے تلاش کر رہی ہیں، داخلے کی راہ میں حائل رکاوٹوں کو مزید کم کر رہی ہیں اور باہمی تعاون پر مبنی ترقی کو فروغ دے رہی ہیں۔ ایسے واضح، کمیونٹی سے منظور شدہ معیارات قائم کرنا اور ان پر عمل کرنا ‘اوپن واشنگ’ کی دھند کو دور کرنے کی طرف پہلا لازمی قدم ہے۔
تحقیقی برادری کے لیے لازمی
سائنسدان اور محققین محض AI ٹولز کے صارف نہیں ہیں؛ وہ اس بات کو یقینی بنانے میں اہم اسٹیک ہولڈرز ہیں کہ یہ ٹولز سائنسی اقدار سے ہم آہنگ ہوں۔ ارتقا پذیر تعریفوں اور معیارات، جیسے OSAID 1.0، کے ساتھ فعال طور پر مشغول ہونا بہت ضروری ہے۔ لیکن عمل محض آگاہی سے آگے بڑھنا چاہیے:
- شفافیت کا مطالبہ: اشاعتوں، گرانٹ کی تجاویز، اور ٹول کے انتخاب میں، محققین کو ان AI ماڈلز کے حوالے سے زیادہ شفافیت کو ترجیح دینی چاہیے اور اس کا مطالبہ کرنا چاہیے جنہیں وہ استعمال کرتے ہیں۔ اس میں ماڈل ریلیز کے ساتھ تفصیلی ‘ڈیٹا انفارمیشن’ کارڈز یا ڈیٹا شیٹس پر زور دینا شامل ہے۔
- حقیقی کھلے پن کی حمایت: OLMo جیسے منصوبوں یا دیگر اقدامات میں فعال طور پر حصہ ڈالیں، استعمال کریں، اور حوالہ دیں جو کوڈ، ڈیٹا، اور طریقہ کار جاری کرنے کے لیے حقیقی عزم کا مظاہرہ کرتے ہیں۔ ڈاؤن لوڈز اور حوالوں کے ساتھ ووٹنگ ایک طاقتور مارکیٹ سگنل بھیجتی ہے۔
- تشخیصی معیارات تیار کریں: کمیونٹی کو AI ماڈل کے کھلے پن کی ڈگری کا جائزہ لینے کے لیے مضبوط طریقوں اور چیک لسٹوں کی ضرورت ہے، جو سادہ لیبلز سے آگے بڑھیں۔ ہم مرتبہ جائزہ لینے کے عمل میں تحقیق میں استعمال ہونے والے AI ٹولز سے وابستہ شفافیت کے دعووں کی جانچ پڑتال شامل ہونی چاہیے۔
- اداروں کے اندر وکالت: یونیورسٹیوں، تحقیقی اداروں، اور پیشہ ورانہ سوسائٹیوں کی حوصلہ افزائی کریں کہ وہ ایسی پالیسیاں اپنائیں جو حقیقی طور پر کھلے اور شفاف AI ٹولز اور پلیٹ فارمز کے استعمال کی حمایت کرتی ہیں یا اس کا تقاضا کرتی ہیں۔
سائنسی برادری کافی اثر و رسوخ رکھتی ہے۔ اجتماعی طور پر ان معیارات پر اصرار کرکے جو تولیدی صلاحیت، شفافیت، اور باہمی تعاون پر مبنی رسائی کو برقرار رکھتے ہیں، محققین گمراہ کن دعووں کے خلاف پیچھے ہٹ سکتے ہیں اور ایک ایسے AI ماحولیاتی نظام کی تشکیل میں مدد کر سکتے ہیں جو سخت سائنسی دریافت کے لیے سازگار ہو۔
پالیسی، فنڈنگ، اور آگے کا راستہ
حکومتیں اور عوامی فنڈنگ ایجنسیاں بھی AI منظر نامے کی تشکیل میں اہم طاقت رکھتی ہیں۔ ان کی پالیسیاں یا تو ‘اوپن واشنگ’ کی واضح طور پر توثیق کر سکتی ہیں یا فعال طور پر حقیقی کھلے پن کو فروغ دے سکتی ہیں۔
- کھلے پن کے لیے مینڈیٹ: US National Institutes of Health (NIH) جیسے اداروں کے پاس پہلے سے ہی مینڈیٹ موجود ہیں جن کے لیے وہ فنڈ فراہم کرتے ہیں تحقیق کے لیے کھلے لائسنسنگ اور ڈیٹا شیئرنگ کی ضرورت ہوتی ہے۔ عوامی پیسے سے تیار کردہ AI ماڈلز اور ڈیٹا سیٹس تک اسی طرح کے اصولوں کو بڑھانا ایک منطقی اور ضروری قدم ہے۔ اگر عوامی فنڈز AI کی ترقی کی حمایت کرتے ہیں، تو نتائج عوامی طور پر قابل رسائی اور زیادہ سے زیادہ حد تک قابل تصدیق ہونے چاہئیں۔
- خریداری کی طاقت: سرکاری ایجنسیاں ٹیکنالوجی کی بڑی صارف ہیں۔ عوامی خریداری کے معاہدوں میں حقیقی اوپن سورس AI (OSAID جیسے معیارات پر عمل پیرا) کے لیے تقاضے متعین کرکے، حکومتیں کمپنیوں کے لیے زیادہ شفاف طریقوں کو اپنانے کے لیے ایک اہم مارکیٹ ترغیب پیدا کر سکتی ہیں۔ اٹلی (Italy) کا عوامی انتظامیہ میں اوپن سورس سافٹ ویئر کا مطالبہ ایک ممکنہ ٹیمپلیٹ پیش کرتا ہے۔
- کھلے انفراسٹرکچر میں سرمایہ کاری: ضابطے سے ہٹ کر، ‘ڈیٹا کامنز’ اقدامات، محققین کے لیے کھلے کمپیوٹیشنل وسائل، اور واقعی کھلے AI ماڈلز کی میزبانی اور تشخیص کے لیے وقف پلیٹ فارمز میں عوامی سرمایہ کاری تبدیلی لا سکتی ہے۔ اس سے کھیل کے میدان کو برابر کرنے اور ملکیتی یا نیم کھلے نظاموں کے قابل عمل متبادل فراہم کرنے میں مدد مل سکتی ہے۔
- عالمی تعاون: AI کی ترقی کی عالمی نوعیت کو دیکھتے ہوئے، اوپن سورس AI معیارات کی تعریف اور فروغ پر بین الاقوامی تعاون ریگولیٹری تقسیم سے بچنے اور دنیا بھر میں شفافیت اور احتساب کی ایک مستقل بنیاد کو یقینی بنانے کے لیے ضروری ہے۔
پالیسی لیورز، جب سوچ سمجھ کر لاگو کیے جاتے ہیں، تو مراعات کو دھوکہ دہی والے لیبلنگ سے ہٹ کر ان طریقوں کی طرف نمایاں طور پر منتقل کر سکتے ہیں جو واقعی سائنسی سالمیت اور وسیع جدت طرازی کی حمایت کرتے ہیں۔ AI میں ‘اوپن سورس’ کے وہم کے خلاف جنگ کے لیے ایک مربوط کوشش کی ضرورت ہے۔ محققین کو چوکس نقاد ہونا چاہیے، سائنسی سختی کے لیے ضروری شفافیت کا مطالبہ کرنا چاہیے۔ OSI جیسے معیارات قائم کرنے والے اداروں کو ان تعریفوں کو بہتر بنانا جاری رکھنا چاہیے جو AI کی منفرد نوعیت کی عکاسی کرتی ہیں۔ اور پالیسی سازوں کو اپنے اثر و رسوخ کا استعمال ان طریقوں کی حوصلہ افزائی اور حکم دینے کے لیے کرنا چاہیے جو قابل تصدیق، قابل اعتماد، اور قابل رسائی مصنوعی ذہانت میں عوامی مفاد سے ہم آہنگ ہوں۔ سائنس میں AI کا مستقبل کا راستہ — چاہے یہ دریافت کے لیے واقعی ایک کھلا محاذ بن جائے یا غیر شفاف کارپوریٹ سسٹمز کے زیر تسلط ایک منظر نامہ — توازن میں لٹکا ہوا ہے۔