‘اوپن سورس’ کی اصطلاح ٹیکنالوجی کی دنیا میں ایک طاقتور گونج رکھتی ہے۔ یہ اشتراکی جدت طرازی، مشترکہ علم، اور شفافیت پر بنیادی یقین کی تصاویر ابھارتی ہے۔ اس جذبے کا واضح اظہار نصف صدی قبل Menlo Park, California میں Homebrew Computer Club کی تشکیل سے ہوا تھا۔ شوقین افراد اور کاریگروں کے اس گروہ نے صرف مشینیں نہیں بنائیں؛ انہوں نے آزادانہ طور پر خیالات اور سافٹ ویئر کے تبادلے پر مبنی ایک ثقافت بنائی، جس نے اوپن سورس تحریک کی بنیاد رکھی جو کمپیوٹنگ میں انقلاب برپا کرے گی۔ پھر بھی، آج، یہ مشکل سے حاصل کی گئی میراث اور کھلے پن کی تعریف کو ایک لطیف لیکن اہم چیلنج کا سامنا ہے، خاص طور پر مصنوعی ذہانت (AI) کے تیزی سے پھیلتے ہوئے میدان میں۔ پیچیدہ AI ماڈلز تیار کرنے والی کمپنیوں کی بڑھتی ہوئی تعداد اپنی تخلیقات کو ‘اوپن سورس’ کے طور پر برانڈ کرنے کے لیے بے تاب ہے، لیکن قریب سے جائزہ لینے سے پتہ چلتا ہے کہ یہ لیبل اکثر سطحی طور پر لگایا جاتا ہے، جو ایک ایسی حقیقت کو چھپاتا ہے جو تحریک کے بنیادی اصولوں سے کم ہے۔ معنی کی یہ ملاوٹ محض ایک لفظی بحث نہیں ہے؛ یہ شفافیت اور تکرار پذیری کے اصولوں کے لیے ایک حقیقی خطرہ ہے جو خاص طور پر سائنسی برادری کے اندر بہت اہم ہیں۔
حقیقی کھلے اشتراک کے جذبے کو سمجھنا
موجودہ مشکل صورتحال کو سمجھنے کے لیے، پہلے یہ سمجھنا ضروری ہے کہ ‘اوپن سورس’ کا حقیقی مطلب کیا ہے۔ یہ صرف مفت سافٹ ویئر سے زیادہ ہے؛ یہ اجتماعی ترقی اور قابل تصدیق اعتماد پر مبنی ایک فلسفہ ہے۔ اس فلسفے کی بنیاد چار ضروری آزادیوں پر ہے:
- پروگرام کو کسی بھی مقصد کے لیے چلانے کی آزادی۔
- یہ مطالعہ کرنے کی آزادی کہ پروگرام کیسے کام کرتا ہے اور اسے تبدیل کرنا تاکہ یہ آپ کی کمپیوٹنگ کو آپ کی مرضی کے مطابق کرے۔ سورس کوڈ تک رسائی اس کے لیے ایک شرط ہے۔
- کاپیاں دوبارہ تقسیم کرنے کی آزادی تاکہ آپ دوسروں کی مدد کر سکیں۔
- اپنے ترمیم شدہ ورژن کی کاپیاں دوسروں کو تقسیم کرنے کی آزادی۔ ایسا کرنے سے آپ پوری کمیونٹی کو اپنی تبدیلیوں سے فائدہ اٹھانے کا موقع دے سکتے ہیں۔ سورس کوڈ تک رسائی اس کے لیے ایک شرط ہے۔
یہ آزادیاں، جو عام طور پر GNU General Public License (GPL), MIT License, یا Apache License جیسے لائسنسوں میں شامل ہوتی ہیں، تاریخی طور پر سورس کوڈ پر مرکوز رہی ہیں۔ سورس کوڈ - پروگرامرز کی لکھی ہوئی انسانی پڑھنے کے قابل ہدایات - روایتی سافٹ ویئر کا بلیو پرنٹ ہے۔ اس کوڈ کو کھلے عام دستیاب کرنے سے کوئی بھی اس کا معائنہ کر سکتا ہے، اس کی منطق کو سمجھ سکتا ہے، ممکنہ خامیوں کی نشاندہی کر سکتا ہے، اسے نئی ضروریات کے مطابق ڈھال سکتا ہے، اور ان بہتریوں کو شیئر کر سکتا ہے۔
یہ ماڈل جدت طرازی اور سائنسی ترقی کے لیے ایک غیر معمولی محرک رہا ہے۔ دنیا بھر کے محققین کے لیے آسانی سے دستیاب ٹولز کے اثرات پر غور کریں:
- شماریاتی تجزیہ: R Studio جیسا سافٹ ویئر شماریاتی کمپیوٹنگ اور گرافکس کے لیے ایک طاقتور، شفاف، اور قابل توسیع ماحول فراہم کرتا ہے، جو لاتعداد سائنسی شعبوں میں ڈیٹا تجزیہ کا سنگ بنیاد بن گیا ہے۔ اس کا کھلا پن طریقوں کے ہم مرتبہ جائزے اور خصوصی پیکجوں کی ترقی کی اجازت دیتا ہے۔
- کمپیوٹیشنل فلوئڈ ڈائنامکس: OpenFOAM سیال کے بہاؤ کی تقلید کے لیے ایک پیچیدہ لائبریری پیش کرتا ہے، جو ایرو اسپیس انجینئرنگ سے لے کر ماحولیاتی سائنس تک کے شعبوں میں اہم ہے۔ اس کی کھلی نوعیت پیچیدہ نقالی کی تخصیص اور تصدیق کو ممکن بناتی ہے۔
- آپریٹنگ سسٹمز: Linux اور دیگر اوپن سورس آپریٹنگ سسٹم دنیا کے بیشتر کمپیوٹنگ انفراسٹرکچر کی ریڑھ کی ہڈی بناتے ہیں، بشمول سائنسی اعلیٰ کارکردگی والے کمپیوٹنگ کلسٹرز، جن کی قدر ان کے استحکام، لچک اور شفافیت کی وجہ سے کی جاتی ہے۔
فوائد محض لاگت کی بچت سے کہیں زیادہ ہیں۔ اوپن سورس تکرار پذیری (reproducibility) کو فروغ دیتا ہے، جو سائنسی طریقہ کار کا سنگ بنیاد ہے۔ جب تحقیق میں استعمال ہونے والے ٹولز اور کوڈ کھلے ہوتے ہیں، تو دوسرے سائنسدان تجربات کو دہرا سکتے ہیں، نتائج کی تصدیق کر سکتے ہیں، اور اعتماد کے ساتھ کام کو آگے بڑھا سکتے ہیں۔ یہ عالمی تعاون کو فروغ دیتا ہے، رکاوٹوں کو توڑتا ہے اور متنوع پس منظر اور اداروں کے محققین کو مشترکہ چیلنجوں میں حصہ ڈالنے کی اجازت دیتا ہے۔ یہ طویل مدتی اور وینڈر لاک ان سے بچاؤ کو یقینی بناتا ہے، تحقیقی سرمایہ کاری کو ملکیتی سافٹ ویئر کمپنیوں کی خواہشات سے بچاتا ہے۔ یہ نئے خیالات اور تکنیکوں کی تیزی سے ترسیل اور تکرار کی اجازت دے کر دریافت کو تیز کرتا ہے۔ اوپن سورس کا فلسفہ بنیادی طور پر شفافیت، جانچ پڑتال، اور مشترکہ ترقی کے ذریعے علم کے سائنسی حصول کے ساتھ ہم آہنگ ہے۔
مصنوعی ذہانت: ایک بالکل مختلف جانور
قائم شدہ اوپن سورس پیراڈائم، جو سورس کوڈ کی رسائی کے گرد محفوظ طریقے سے بنایا گیا ہے، مصنوعی ذہانت کے دائرے میں، خاص طور پر بڑے پیمانے پر ماڈلز جیسے بنیادی بڑے لینگویج ماڈلز (LLMs) پر لاگو ہونے پر اہم مشکلات کا سامنا کرتا ہے۔ اگرچہ یہ AI سسٹمز یقینی طور پر کوڈ شامل کرتے ہیں، ان کی فعالیت اور رویے کہیں زیادہ پیچیدہ اور اکثر غیر شفاف عناصر سے تشکیل پاتے ہیں۔ نیورل نیٹ ورک کے لیے صرف آرکیٹیکچرل کوڈ جاری کرنا حقیقی کھلے پن کے مترادف نہیں ہے جس طرح یہ روایتی سافٹ ویئر کے لیے ہوتا ہے۔
ایک AI ماڈل، خاص طور پر ایک ڈیپ لرننگ ماڈل، عام طور پر کئی کلیدی اجزاء پر مشتمل ہوتا ہے:
- ماڈل آرکیٹیکچر: یہ نیورل نیٹ ورک کا ساختی ڈیزائن ہے - تہوں، نیورانز، اور کنکشنز کی ترتیب۔ کمپنیاں اکثر یہ معلومات جاری کرتی ہیں، اسے کھلے پن کے ثبوت کے طور پر پیش کرتی ہیں۔ یہ انجن کے بلیو پرنٹ کو شیئر کرنے کے مترادف ہے۔
- ماڈل ویٹس (پیرامیٹرز): یہ نیٹ ورک کے اندر عددی اقدار ہیں، اکثر اربوں کی تعداد میں، جنہیں تربیتی عمل کے دوران ایڈجسٹ کیا گیا ہے۔ وہ تربیتی ڈیٹا سے نکالے گئے سیکھے ہوئے نمونوں اور علم کی نمائندگی کرتے ہیں۔ ویٹس جاری کرنے سے دوسروں کو پہلے سے تربیت یافتہ ماڈل استعمال کرنے کی اجازت ملتی ہے۔ یہ مکمل طور پر اسمبل شدہ انجن فراہم کرنے جیسا ہے، جو چلنے کے لیے تیار ہے۔
- ٹریننگ ڈیٹا: یہ شاید سب سے اہم اور اکثر چھپایا جانے والا جزو ہے۔ بنیادی ماڈلز کو بڑے ڈیٹا سیٹس پر تربیت دی جاتی ہے، جو اکثر انٹرنیٹ سے کھرچے جاتے ہیں یا ملکیتی یا نجی مجموعوں (جیسے میڈیکل ریکارڈز، جو اہم رازداری کے خدشات پیدا کرتے ہیں) سے حاصل کیے جاتے ہیں۔ اس ڈیٹا کے اندر ساخت، کیوریشن، فلٹرنگ، اور ممکنہ تعصبات ماڈل کی صلاحیتوں، حدود، اور اخلاقی رویے پر گہرا اثر ڈالتے ہیں۔ تربیتی ڈیٹا کے بارے میں تفصیلی معلومات کے بغیر، یہ سمجھنا کہ ماڈل کیوں اس طرح برتاؤ کرتا ہے، یا مخصوص ایپلی کیشنز کے لیے اس کی مناسبیت اور حفاظت کا اندازہ لگانا ناقابل یقین حد تک مشکل ہو جاتا ہے۔ یہ خفیہ ایندھن کا مرکب اور وہ عین حالات ہیں جن کے تحت انجن کو چلایا گیا تھا۔
- ٹریننگ کوڈ اور پراسیس: اس میں تربیت کے لیے استعمال ہونے والے مخصوص الگورتھم، آپٹیمائزیشن تکنیک، منتخب کردہ ہائپر پیرامیٹرز (ترتیبات جو سیکھنے کے عمل کو کنٹرول کرتی ہیں)، استعمال شدہ کمپیوٹیشنل انفراسٹرکچر، اور استعمال ہونے والی اہم توانائی شامل ہیں۔ تربیتی عمل میں معمولی تغیرات مختلف ماڈل رویوں کا باعث بن سکتے ہیں، جس سے تکرار پذیری مشکل ہو جاتی ہے یہاں تک کہ اگر فن تعمیر اور ڈیٹا معلوم ہوں۔ یہ انجن کی تعمیر اور ٹیوننگ کے لیے استعمال ہونے والی تفصیلی انجینئرنگ وضاحتیں، ٹولنگ، اور فیکٹری کے حالات کی نمائندگی کرتا ہے۔
بہت سے سسٹمز جو فی الحال ‘اوپن سورس’ AI کے طور پر مارکیٹ کیے جاتے ہیں بنیادی طور پر ماڈل آرکیٹیکچر اور پہلے سے تربیت یافتہ ویٹس تک رسائی فراہم کرتے ہیں۔ اگرچہ یہ صارفین کو ماڈل چلانے اور شاید اسے چھوٹے ڈیٹا سیٹس پر فائن ٹیون کرنے کی اجازت دیتا ہے، یہ تربیتی ڈیٹا اور عمل کے حوالے سے ضروری شفافیت فراہم کرنے میں بری طرح ناکام رہتا ہے۔ یہ ماڈل کی بنیادی خصوصیات کا صحیح معنوں میں مطالعہ کرنے یا اسے گہرے معنی خیز طریقوں سے ترمیم کرنے کی صلاحیت کو شدید طور پر کم کرتا ہے جس کے لیے دوبارہ تربیت یا اس کی اصلیت کو سمجھنے کی ضرورت ہوتی ہے۔ مطالعہ اور ترمیم کی آزادیاں، جو اوپن سورس کی تعریف کے لیے مرکزی حیثیت رکھتی ہیں، جب ڈیٹا اور تربیتی طریقہ کار کے اہم عناصر پوشیدہ رہتے ہیں تو نمایاں طور پر رکاوٹ بنتی ہیں۔ ماڈل کی تخلیق کو شروع سے نقل کرنا - سائنسی تفہیم اور تصدیق کا ایک کلیدی امتحان - عملی طور پر ناممکن ہو جاتا ہے۔
AI میں ‘اوپن واشنگ’ کا پریشان کن رجحان
لیبل اور حقیقت کے درمیان اس فرق نے ‘اوپن واشنگ’ کے نام سے جانے والی ایک مشق کو جنم دیا ہے۔ یہ اصطلاح کمپنیوں کے اس عمل کو بیان کرتی ہے جو مارکیٹنگ اور اسٹریٹجک فائدے کے لیے ‘اوپن سورس’ کی مثبت ساکھ اور سمجھے جانے والے فوائد کا فائدہ اٹھاتی ہیں، جبکہ بیک وقت اہم اجزاء جیسے تفصیلی تربیتی ڈیٹا کی معلومات یا خود تربیت کے لیے استعمال ہونے والے کوڈ تک رسائی کو روکتی ہیں۔ وہ اپنے سسٹمز کو کھلے پن کی زبان میں لپیٹتے ہیں بغیر اس کے شفافیت اور کمیونٹی تک رسائی کے مطالباتی اصولوں کو پوری طرح اپنائے۔
کئی نمایاں AI ماڈلز، وسیع پیمانے پر استعمال ہونے اور بعض اوقات ‘اوپن’ عہدہ رکھنے کے باوجود، جب Open Source Initiative (OSI) جیسی تنظیموں کی طرف سے حمایت یافتہ اوپن سورس کی جامع تعریف کے خلاف ماپا جاتا ہے تو کم پڑ جاتے ہیں۔ OSI کی طرف سے ایک تجزیہ، جو 2022 سے AI کے تناظر میں اوپن سورس کے معنی کو واضح کرنے کے لیے تندہی سے کام کر رہا ہے، نے کئی مقبول ماڈلز کے ساتھ خدشات کو اجاگر کیا:
- Llama 2 & Llama 3.x (Meta): اگرچہ ماڈل ویٹس اور آرکیٹیکچر دستیاب ہیں، استعمال پر پابندیاں اور مکمل تربیتی ڈیٹا سیٹ اور عمل کے حوالے سے نامکمل شفافیت روایتی اوپن سورس اقدار کے ساتھ ان کی مطابقت کو محدود کرتی ہے۔
- Grok (X): اسی طرح، اگرچہ دستیاب کرایا گیا ہے، اس کے تربیتی ڈیٹا اور طریقہ کار کے بارے میں جامع معلومات کی کمی اس کے حقیقی کھلے پن کے بارے میں سوالات اٹھاتی ہے۔
- Phi-2 (Microsoft): اکثر ‘اوپن ماڈل’ کے طور پر بیان کیا جاتا ہے، اس کی تخلیق کے عمل اور ڈیٹا کے حوالے سے مکمل شفافیت محدود رہتی ہے۔
- Mixtral (Mistral AI): اگرچہ حصے جاری کیے گئے ہیں، یہ مطالعہ اور ترمیم کے لیے تمام ضروری اجزاء تک رسائی میں حدود کی وجہ سے اوپن سورس کے مکمل معیار پر پورا نہیں اترتا۔
یہ مثالیں ان کوششوں کے برعکس ہیں جو اوپن سورس اصولوں کی زیادہ پابندی کے لیے کوشاں ہیں:
- OLMo (Allen Institute for AI): ایک غیر منافع بخش تحقیقی ادارے کی طرف سے تیار کیا گیا، OLMo کو واضح طور پر کھلے پن کو ذہن میں رکھتے ہوئے ڈیزائن کیا گیا تھا، جس میں نہ صرف ویٹس بلکہ تربیتی کوڈ اور استعمال شدہ ڈیٹا کے بارے میں تفصیلات بھی جاری کی گئیں۔
- LLM360’s CrystalCoder: ایک کمیونٹی پر مبنی پروجیکٹ جس کا مقصد ماڈل کے پورے لائف سائیکل میں مکمل شفافیت ہے، بشمول ڈیٹا، تربیتی طریقہ کار، اور تشخیصی میٹرکس۔
اوپن واشنگ میں کیوں مشغول ہوں؟ محرکات کثیر جہتی ہیں:
- مارکیٹنگ اور تاثر: ‘اوپن سورس’ لیبل کافی خیر سگالی رکھتا ہے۔ یہ تعاون، اخلاقی طریقوں، اور وسیع تر کمیونٹی کے لیے عزم کا مشورہ دیتا ہے، جو صارفین، ڈویلپرز، اور مثبت پریس کو راغب کر سکتا ہے۔
- ایکو سسٹم کی تعمیر: ماڈل ویٹس جاری کرنا، یہاں تک کہ مکمل شفافیت کے بغیر، ڈویلپرز کو AI سسٹم کے اوپر ایپلی کیشنز بنانے کی ترغیب دیتا ہے، ممکنہ طور پر ایک منحصر ایکو سسٹم بناتا ہے جو اصل کمپنی کو فائدہ پہنچاتا ہے۔
- ریگولیٹری آربٹریج: یہ ایک خاص طور پر تشویشناک محرک ہے۔ آنے والے ضوابط، جیسے European Union’s AI Act (2024)، سے توقع کی جاتی ہے کہ وہ بعض اعلیٰ خطرے والے AI سسٹمز پر سخت تقاضے عائد کریں گے۔ تاہم، ‘مفت اور اوپن سورس سافٹ ویئر’ کے لیے اکثر چھوٹ یا ہلکی جانچ پڑتال تجویز کی جاتی ہے۔ ‘اوپن سورس’ لیبل لگا کر - چاہے قائم شدہ تعریفوں کے مطابق غلط ہی کیوں نہ ہو - کمپنیاں ان ضوابط کو زیادہ آسانی سے نیویگیٹ کرنے کی امید کر سکتی ہیں، ملکیتی، اعلیٰ خطرے والے سسٹمز سے وابستہ ممکنہ طور پر مہنگے تعمیل کے بوجھ سے بچ سکتی ہیں۔ یہ اسٹریٹجک لیبلنگ ایک ممکنہ خامی کا استحصال کرتی ہے، حفاظت اور شفافیت کو یقینی بنانے کے ضابطے کے ارادے کو کمزور کرتی ہے۔
یہ عمل بالآخر ‘اوپن سورس’ کی اصطلاح کی قدر کم کرتا ہے اور الجھن پیدا کرتا ہے، جس سے صارفین، ڈویلپرز، اور محققین کے لیے یہ جاننا مشکل ہو جاتا ہے کہ کون سے AI سسٹمز واقعی وہ شفافیت اور آزادیاں پیش کرتے ہیں جن کا لیبل مطلب ہے۔
سائنس کے لیے حقیقی کھلے پن کی فوری اہمیت کیوں ہے؟
سائنسی برادری کے لیے، اس بحث میں داؤ غیر معمولی طور پر بلند ہیں۔ سائنس شفافیت، تکرار پذیری، اور آزادانہ تصدیق کی صلاحیت پر پروان چڑھتی ہے۔ تحقیق میں AI کا بڑھتا ہوا انضمام - جینومک ڈیٹا کا تجزیہ کرنے اور موسمیاتی تبدیلی کی ماڈلنگ سے لے کر نئے مواد دریافت کرنے اور پیچیدہ حیاتیاتی نظاموں کو سمجھنے تک - ان AI ٹولز کی نوعیت کو انتہائی اہم بنا دیتا ہے۔ ‘بلیک باکس’ AI سسٹمز پر انحصار کرنا، یا ان پر جو حقیقی شفافیت فراہم کیے بغیر کھلے ہونے کا بہانہ کرتے ہیں، گہرے خطرات متعارف کراتے ہیں:
- خراب تکرار پذیری: اگر محققین کسی مطالعہ میں استعمال ہونے والے AI ماڈل کے پیچھے تربیتی ڈیٹا اور طریقہ کار تک رسائی یا سمجھ حاصل نہیں کر سکتے ہیں، تو نتائج کو دہرانا ناممکن ہو جاتا ہے۔ یہ بنیادی طور پر سائنسی طریقہ کار کے ایک بنیادی ستون کو کمزور کرتا ہے۔ نتائج پر کیسے بھروسہ کیا جا سکتا ہے یا ان پر تعمیر کیا جا سکتا ہے اگر ان کی آزادانہ طور پر تصدیق نہیں کی جا سکتی؟
- پوشیدہ تعصبات اور حدود: تمام AI ماڈلز اپنے تربیتی ڈیٹا اور ڈیزائن کے انتخاب سے تعصبات وراثت میں پاتے ہیں۔ شفافیت کے بغیر، محققین ان تعصبات کا مناسب طور پر اندازہ نہیں لگا سکتے یا ماڈل کی حدود کو نہیں سمجھ سکتے۔ غیر دانستہ طور پر متعصب ماڈل کا استعمال مسخ شدہ نتائج، ناقص نتائج، اور ممکنہ طور پر نقصان دہ حقیقی دنیا کے نتائج کا باعث بن سکتا ہے، خاص طور پر طبی تحقیق یا سماجی سائنس جیسے حساس شعبوں میں۔
- جانچ پڑتال کی کمی: غیر شفاف ماڈلز سخت ہم مرتبہ جائزے سے بچ جاتے ہیں۔ سائنسی برادری ماڈل کے اندرونی کاموں کی مکمل چھان بین نہیں کر سکتی، اس کی منطق میں ممکنہ غلطیوں کی نشاندہی نہیں کر سکتی، یا اس کی پیشین گوئیوں سے وابستہ غیر یقینی صورتحال کو نہیں سمجھ سکتی۔ یہ سائنسی تحقیقات کی خود اصلاحی نوعیت میں رکاوٹ ہے۔
- کارپوریٹ سسٹمز پر انحصار: کارپوریشنز کے زیر کنٹرول بند یا نیم بند AI سسٹمز پر انحصار انحصار پیدا کرتا ہے۔ تحقیقی ایجنڈے دستیاب کارپوریٹ ٹولز کی صلاحیتوں اور حدود سے لطیف طور پر متاثر ہو سکتے ہیں، اور رسائی محدود ہو سکتی ہے یا مہنگی ہو سکتی ہے، ممکنہ طور پر آزاد تحقیقی سمتوں کو دبایا جا سکتا ہے اور اچھی طرح سے فنڈڈ اداروں اور دوسروں کے درمیان فرق کو وسیع کیا جا سکتا ہے۔
- دبی ہوئی جدت طرازی: حقیقی اوپن سورس محققین کو نہ صرف ٹولز استعمال کرنے بلکہ ان کو جدا کرنے، ترمیم کرنے، بہتر بنانے، اور دوبارہ استعمال کرنے کی اجازت دیتا ہے۔ اگر AI ماڈلز کے کلیدی اجزاء ناقابل رسائی رہتے ہیں، تو جدت طرازی کا یہ اہم راستہ مسدود ہو جاتا ہے۔ سائنسدانوں کو ناول ٹریننگ تکنیکوں کے ساتھ تجربہ کرنے، مختلف ڈیٹا کے امتزاج کو تلاش کرنے، یا مخصوص، باریک تحقیقی سوالات کے لیے ماڈلز کو ڈھالنے سے روکا جاتا ہے جن کا اصل ڈویلپرز نے اندازہ نہیں لگایا تھا۔
سائنسی برادری ‘اوپن سورس’ کی اصطلاح کی ملاوٹ کو غیر فعال طور پر قبول کرنے کی متحمل نہیں ہو سکتی۔ اسے فعال طور پر وضاحت کی وکالت کرنی چاہیے اور AI ڈویلپرز سے حقیقی شفافیت کا مطالبہ کرنا چاہیے، خاص طور پر جب یہ ٹولز تحقیقی سیاق و سباق میں استعمال ہوتے ہیں۔ اس میں شامل ہیں:
- واضح معیارات کو فروغ دینا: OSI جیسی کوششوں کی حمایت کرنا، تاکہ ‘اوپن سورس AI’ کی تشکیل کے لیے واضح، سخت تعریفیں قائم کی جا سکیں، ایسی تعریفیں جو فن تعمیر، ویٹس، تربیتی ڈیٹا، اور تربیتی عمل کے حوالے سے شفافیت کو شامل کرتی ہوں۔
- قابل تصدیق ٹولز کو ترجیح دینا: ان AI ماڈلز اور پلیٹ فارمز کے استعمال کی حمایت کرنا جو شفافیت کے ان اعلیٰ معیارات پر پورا اترتے ہیں، چاہے وہ ابتدائی طور پر کم کارکردگی والے ہوں یا آسانی سے دستیاب غیر شفاف متبادلات سے زیادہ کوشش کی ضرورت ہو۔
- شفافیت کا مطالبہ کرنا: اس بات پر اصرار کرنا کہ AI شامل کرنے والی اشاعتوں میں استعمال شدہ ماڈلز کے بارے میں تفصیلی انکشافات شامل ہوں، بشمول تربیتی ڈیٹا کے ماخذ، پروسیسنگ، اور ممکنہ تعصبات کے ساتھ ساتھ تربیتی طریقہ کار کے بارے میں جامع معلومات۔
- حقیقی طور پر کھلے منصوبوں کی حمایت کرنا: AI کی ترقی میں حقیقی کھلے پن کے لیے پرعزم اداروں کے کمیونٹی پر مبنی منصوبوں اور اقدامات میں حصہ ڈالنا اور ان کا استعمال کرنا۔
Homebrew Computer Club کا جذبہ - مشترکہ علم اور اشتراکی تعمیر کا - AI دور کی پیچیدگیوں کو ذمہ داری سے نیویگیٹ کرنے کے لیے ضروری ہے۔ مصنوعی ذہانت کے لیے ‘اوپن سورس’ کے حقیقی معنی کو دوبارہ حاصل کرنا اور اس کا دفاع کرنا صرف اصطلاحی پاکیزگی کے بارے میں نہیں ہے؛ یہ تیزی سے AI پر مبنی دنیا میں سائنس کی سالمیت، تکرار پذیری، اور مسلسل ترقی کے تحفظ کے بارے میں ہے۔ آگے بڑھنے کے لیے چوکسی اور اس بات کو یقینی بنانے کے لیے اجتماعی عزم کی ضرورت ہے کہ AI کے طاقتور ٹولز کو کھلی تحقیقات کے ان اصولوں کے مطابق تیار اور تعینات کیا جائے جنہوں نے صدیوں سے سائنس کی اتنی اچھی خدمت کی ہے۔