اوپن سورس اور ہیومن اے آئی پراجیکٹ

ایک ادبی میلہ، ایک AI انکشاف

کچھ ہفتے پہلے، بھارت میں جے پور لٹریچر فیسٹیول (JLF) مصنوعی ذہانت کے مستقبل کے بارے میں ایک اہم بحث کے لیے ایک غیر متوقع فورم بن گیا۔ بظاہر سلطنت کی وراثت پر مرکوز ایک پینل کے دوران، گفتگو نے ایک تیز موڑ لیا۔ سامعین، پنکج مشرا کی ‘From the Ruins of Empire: The Revolt Against the West and the Remaking of Asia’ سے متاثر ہو کر، سوالات کا ایک سلسلہ پوچھا، ادب کے بارے میں نہیں، بلکہ DeepSeek کے بارے میں، جو چین کا ایک نیا جنریٹو AI ماڈل ہے۔

یہ سوالات - ہم یہاں کیسے پہنچے؟ ہم AI کے مستقبل کے لیے بہترین راستہ کیسے بنا سکتے ہیں؟ AI کی ترقی میں اوپن سورس کیوں کلیدی حیثیت رکھتا ہے؟ - فیسٹیول کے میدانوں سے بہت دور تک گونجے۔ انہوں نے ایک گہری تاریخی رقابت، خود انحصاری کی خواہش، اور AI کی ترقی کے لیے ایک زیادہ کھلے اور باہمی تعاون کے نقطہ نظر کی وکالت کرنے والی ایک بڑھتی ہوئی عالمی تحریک کو چھوا۔

DeepSeek کے استقبال کی تاریخی جڑیں

کسی ادبی میلے میں DeepSeek کا ابھرنا عجیب لگ سکتا ہے۔ تاہم، اس کی اہمیت تاریخی واقعات اور ایک طویل عرصے سے جاری رقابت، خاص طور پر ایشیا اور مغرب کے درمیان، سے گہری جڑی ہوئی ہے۔ جب کہ یورپی AI لیبز نے اپنے اوپن سورس بریک تھرو کے لیے پذیرائی حاصل کی ہے، ایشیا میں DeepSeek کا استقبال کہیں زیادہ گہرا تاریخی گونج رکھتا ہے۔

DeepSeek کے لانچ کو میڈیا کی شدید کوریج ملی۔ JLF میں اس کے استقبال نے ایک ایسے جذبے کو ظاہر کیا جو AI کی کارکردگی کے محض مباحثوں سے بالاتر تھا۔ ہندوستانی مصنفین اور صحافی، جو اکثر چین پر تنقید کرتے ہیں، خود کو امریکی AI کارپوریشنز (AICs) کے تسلط کے خلاف مشترکہ جدوجہد سے متحد پایا۔ ایشیا بھر میں DeepSeek کے لیے یہ جوش و خروش نوآبادیاتی تاریخ میں جڑا ہوا ہے اور، حال ہی میں، اشتعال انگیز کارپوریٹ اعلانات میں۔

AI: خود انحصاری کے لیے ایک جدید جدوجہد

اسٹیفن پلاٹ کے لیے، ‘Imperial Twilight: The Opium War and The End of China’s Last Golden Age’ کے مصنف، چین کے تکنیکی عزائم اس کے تاریخی زخموں سے الگ نہیں ہیں۔ افیون کی جنگیں (1839-1860) اس بات کی ایک طاقتور علامت کے طور پر کام کرتی ہیں کہ کس طرح برطانیہ کی تکنیکی اور فوجی برتری نے چین کو ذلیل کیا۔ یہ ‘صدی کی ذلت’ چین کی خود انحصاری کے لیے موجودہ مہم، AI، سیمی کنڈکٹرز اور دیگر اہم ٹیکنالوجیز میں اس کی جارحانہ سرمایہ کاری کو ہوا دیتی ہے۔ یہ مغربی ٹیکنالوجی پر انحصار سے بچنے کا عزم ہے، ایک ایسا سبق جو قومی شعور میں کندہ ہے۔

JLF میں ہندوستانی پینلسٹس نے اس بیانیے میں مشترکہ بنیاد پائی۔ چین کی طرح، ہندوستان بھی ایسٹ انڈیا کمپنی کے اثر و رسوخ کا سیاہ نشان رکھتا ہے۔ مزید برآں، برطانوی صحافی انیتا آنند نے OpenAI کے CEO سیم آلٹمین کی ایک متنازعہ ویڈیو پر روشنی ڈالی جس میں ہندوستان کی فاؤنڈیشن ماڈلز کی تربیت میں AICs کا مقابلہ کرنے کی صلاحیت کو مسترد کرتے ہوئے کہا گیا تھا کہ یہ ‘مکمل طور پر مایوس کن’ ہے۔ اس طرح کے ریمارکس نے خطے میں خود انحصاری کے عزم کو مزید مضبوط کیا ہے۔

اوپن سورس AI: مزاحمت کی علامت

DeepSeek، اور اس سے پہلے کی یورپی لیبز نے، AI کی دوڑ میں امید کی کرن پیش کی ہے۔ اوپن سورس کو اپنانے کا ان کا انتخاب ملکیتی AI ماڈلز کے تسلط کے خلاف مزاحمت کی ایک طاقتور علامت بن گیا ہے۔

DeepSeek R1 کی ریلیز کو ایک گہری جڑی ہوئی رقابت، خاص طور پر امریکہ کے ساتھ، کے تناظر میں سمجھنا چاہیے۔ یہ رقابت اتنی گہری ہے کہ امریکی ٹیکنالوجی کے ساتھ مقابلے کے مباحثوں میں یورپ کو اکثر نظر انداز کر دیا جاتا ہے۔

AICs کے تسلط نے مغرب میں نوآبادیات سے موازنہ کو بھی جنم دیا ہے۔ اگست 2024 کے ایک آپشن ایڈ میں ‘The Rise of Techno-Colonialism’ کے عنوان سے، ہرمن ہاؤسر، یورپی انوویشن کونسل کے رکن، اور حازم ڈینی نقیب، یونیورسٹی کالج لندن (UCL) کے سینئر محقق، نے لکھا: ‘پرانی نوآبادیات کے برعکس، ٹیکنو-نوآبادیات علاقہ پر قبضہ کرنے کے بارے میں نہیں ہے بلکہ ان ٹیکنالوجیز کو کنٹرول کرنے کے بارے میں ہے جو عالمی معیشت اور ہماری روزمرہ کی زندگیوں کی بنیاد ہیں۔ اس کو حاصل کرنے کے لیے، امریکہ اور چین تیزی سے عالمی سپلائی چینز کے سب سے زیادہ اختراعی اور پیچیدہ حصوں کو آن شور کر رہے ہیں، اس طرح اسٹریٹجک چوکی پوائنٹس بنا رہے ہیں۔’

Mistral، kyutai، اور Meta’s FAIR Paris ٹیم جیسی یورپی AI لیبز، اور اب DeepSeek کے اوپن سورس اپروچ نے AICs کی ملکیتی AI ماڈل حکمت عملی کا ایک زبردست متبادل پیش کیا ہے۔ یہ اوپن سورس شراکتیں عالمی سطح پر گونج رہی ہیں اور امریکی AI تسلط کے خلاف مزاحمت کی علامت کے طور پر اوپن سورس AI کو اپنانے کو مزید مستحکم کیا ہے۔

اوپن سورس کے لیے کیس: تاریخ کی شاعری

تکنیکی تعاون توانائی اور رفتار پر منحصر ہے، جو سافٹ ویئر کوڈ کے ارتقاء میں موروثی ہے۔

فرانسیسی نوبل انعام یافتہ ماہر اقتصادیات جین ٹیرول نے، ابتدائی طور پر اوپن سورس کے ابھرنے پر حیران ہو کر، اپنے 2000 کے مقالے میں جوش لرنر کے ساتھ سوال کیا، ‘The Simple Economics of Open Source’: ‘ہزاروں اعلیٰ درجے کے پروگرامرز کو عوامی فائدے کی فراہمی میں آزادانہ طور پر حصہ کیوں لینا چاہیے؟ ایثار پرستی پر مبنی کوئی بھی وضاحت صرف اتنی ہی دور تک جاتی ہے۔’

اگرچہ اس وقت سمجھ میں آنے والی بات ہے، AI کی حالیہ برسوں میں پیش رفت، خاص طور پر DeepSeek R1 کی ریلیز کے بعد، کوئی بھی شخص اس کا جواب خود واضح پائے گا۔ FAIR Paris at Meta’s کا Llama کو اوپن سورس کرنے کا اثر، Mistral کا تیز رفتار عروج اور اس کے بانیوں کا 7B لینگویج لرننگ ماڈل (LLM) کو اوپن سورس کرنے کے ذریعے، اور DeepSeek R1 ان پروگرامرز اور سائنسدانوں کی اوپن سورس کے لیے لگن کے پیچھے زبردست وجوہات کو ظاہر کرتے ہیں۔

یہ اس بات کی بھی وضاحت کرتا ہے کہ سیم آلٹمین اور اس کے شریک بانیوں نے ٹیلنٹ کو راغب کرنے کے لیے ‘OpenAI’ نام کا انتخاب کیوں کیا۔ کیا ان میں سے کوئی بھی فرنٹیئر لیبز اتنی زبردست تشہیر حاصل کر پاتی اور AI کمیونٹی کے اندر اتنے مضبوط ذاتی برانڈز بنا پاتی اگر انہوں نے ملکیتی طریقہ کار کا انتخاب کیا ہوتا؟ اس کا جواب ایک گونجتا ہوا نہیں ہے۔

1999 سے دو طاقتور اقتباسات، بالترتیب پروگرامر رچرڈ اسٹال مین اور ڈویلپر ایرک ریمنڈ کے، جو مقالے کے آغاز میں شامل کیے گئے ہیں، JLF میں DeepSeek کے استقبال کو روشن کرتے ہیں اور گہرے نظریاتی قوتوں کو اجاگر کرتے ہیں:

  • ‘یہ خیال کہ ملکیتی سافٹ ویئر کا سماجی نظام - وہ نظام جو کہتا ہے کہ آپ کو سافٹ ویئر شیئر کرنے یا تبدیل کرنے کی اجازت نہیں ہے - غیر سماجی ہے، کہ یہ غیر اخلاقی ہے، کہ یہ سراسر غلط ہے، کچھ لوگوں کے لیے حیرت کا باعث ہو سکتا ہے۔ لیکن عوام کو تقسیم کرنے اور صارفین کو بے بس رکھنے پر مبنی نظام کے بارے میں ہم اور کیا کہہ سکتے ہیں؟’ - رچرڈ اسٹال مین

  • ‘لینکس ہیکرز جس یوٹیلیٹی فنکشن کو زیادہ سے زیادہ کر رہے ہیں وہ کلاسیکی طور پر معاشی نہیں ہے، بلکہ ان کے اپنے انا کی تسکین اور دوسرے ہیکرز کے درمیان شہرت کا غیر محسوس ہے۔ … رضاکارانہ ثقافتیں جو اس طرح کام کرتی ہیں دراصل غیر معمولی نہیں ہیں۔ ایک اور جس میں میں نے طویل عرصے سے حصہ لیا ہے وہ سائنس فکشن فینڈم ہے، جو ہیکرڈم کے برعکس واضح طور پر ایگوبو (دوسرے مداحوں کے درمیان کسی کی شہرت میں اضافہ) کو تسلیم کرتا ہے۔’ - ایرک ریمنڈ

1970 اور 1980 کی دہائیوں میں یونکس کا راستہ AI کی موجودہ حالت کے لیے ایک زبردست مشابہت فراہم کرتا ہے۔ AT&T کی ابتدائی پروموشن اور اکیڈمیا کے اندر یونکس کی مفت تقسیم نے جدت اور اپنانے کو فروغ دیا۔ تاہم، جب AT&T نے 1970 کی دہائی کے آخر میں ایک ملکیتی لائسنس نافذ کیا، تو اس نے لامحالہ برکلے یونیورسٹی کو BSD Unix، ایک کھلا متبادل، اور بالآخر لینس ٹوروالڈز کو لینکس بنانے پر مجبور کیا۔ یورپ میں ٹوروالڈز کی لینکس کی ترقی نے اوپن سورس سافٹ ویئر کا مرکز امریکہ سے دور کر دیا۔

مشابہتیں حیران کن ہیں، یہاں تک کہ جغرافیائی طور پر بھی، AI کے ارتقاء کے ساتھ۔ تاہم، اس بار، نئے جغرافیے ابھرے ہیں: ابوظہبی کا TII اپنے فالکن ماڈلز کے ساتھ، چین کا DeepSeek، علی بابا کا Qwen، اور حال ہی میں، ہندوستان کا Krutrim AI Lab اپنے انڈک زبانوں کے لیے اوپن سورس ماڈلز کے ساتھ۔

Meta FAIR Paris ٹیم، معروف یورپی AI لیبز اور نئی فرنٹیئر لیبز (DeepSeek, Falcon, Qwen, Krutrim) کے ساتھ، AI جدت کو نمایاں طور پر تیز کیا ہے۔ تحقیقی مقالوں اور کوڈ کو کھلے عام شیئر کرنے سے، انہوں نے:

  • AI انجینئرز اور محققین کی ایک نئی نسل کو جدید ترین AI تکنیکوں میں تربیت دی ہے۔
  • کھلے تعاون کا ایک ماحولیاتی نظام بنایا ہے، جو ملکیتی AI لیبز سے باہر تیزی سے ترقی کو ممکن بناتا ہے۔
  • متبادل AI ماڈلز فراہم کیے ہیں، اس بات کو یقینی بناتے ہوئے کہ AI پر امریکی AI کارپوریشنز کی اجارہ داری نہ ہو۔

یہ چار ماحولیاتی نظام (یورپ، ہندوستان، ابوظہبی، اور چین) ملکیتی AI ذہنیت کے تحت کام کرنے والے غالب AICs کو چیلنج کرنے کے لیے ایک طاقتور اوپن سورس AI اتحاد بنا سکتے ہیں۔

31 جنوری 2025 کو DeepSeek R1 کی ریلیز کے بعد ایک Ask Me Anything (AMA) سوالنامے میں، آلٹمین نے تسلیم کیا کہ ملکیتی AI ماڈل کا طریقہ کار تاریخ کے غلط رخ پر تھا۔

وقت گزرنے کے ساتھ، دنیا بھر کی AI لیبز اس اتحاد میں شامل ہونے کا انتخاب کر سکتی ہیں تاکہ اجتماعی طور پر اس شعبے کو آگے بڑھایا جا سکے۔ یہ پہلا موقع نہیں ہو گا کہ کوئی سائنسی شعبہ غیر منافع بخش اقدام کے ذریعے حدود اور سیاسی نظریات سے تجاوز کرے۔ یہ مقابلے کا ایک ایسا طریقہ پیش کرتا ہے جو گلوبل ساؤتھ کی طرف سے اکثر ظاہر کیے جانے والے نوآبادیاتی مخالف شکایات کو متحرک کرنے سے گریز کرتا ہے۔

تاریخی نظیریں: AI کے لیے ایک ماڈل کے طور پر ہیومن جینوم پروجیکٹ

ایک ماہر حیاتیات کے طور پر، میں خاص طور پر ہیومن جینوم پروجیکٹ (HGP) کی کامیابیوں سے واقف ہوں اور یہ کہ اس نے بالآخر Celera Genomics کے منافع بخش اقدام کو کیسے پیچھے چھوڑ دیا، جس سے اس شعبے اور مجموعی طور پر انسانیت کو فائدہ ہوا۔

HGP ایک اہم بین الاقوامی تحقیقی اقدام تھا جس نے پورے انسانی جینوم کو نقشہ بنایا اور ترتیب دیا۔ 2003 میں 13 سال کے تعاون کے بعد مکمل ہونے والے، اس نے 2011 کی ایک رپورٹ کے مطابق، جو 2013 میں اپ ڈیٹ کی گئی تھی، 3 بلین ڈالر کی سرمایہ کاری سے تقریباً 800 بلین ڈالر کا معاشی اثر پیدا کیا ہے (امریکی معیشت میں سرمایہ کاری پر 141 سے ایک کا منافع - ہر $1 وفاقی HGP سرمایہ کاری نے معیشت میں $141 کی پیداوار میں حصہ ڈالا ہے)۔ اس نے ذاتی نوعیت کی ادویات، بیماریوں کی روک تھام، اور جینومک تحقیق میں ترقی کو ممکن بناتے ہوئے طب، بائیو ٹیکنالوجی اور جینیات میں انقلاب برپا کر دیا ہے۔ ترتیب دینے کا کام اور تحقیق چھ ممالک: امریکہ، برطانیہ، فرانس، جرمنی، جاپان اور چین میں 20 لیبارٹریوں نے کی۔

جب کہ Celera Genomics نے منافع کے لیے جینومک سیکوینسز کو ترتیب دینے کی کوشش کی، HGP نے کھلے ڈیٹا شیئرنگ کو ترجیح دی، جو اس کے برمودا اصولوں میں شامل ہے۔ فروری 1996 میں برمودا میں ہیومن جینوم سیکوینسنگ پر بین الاقوامی حکمت عملی کے اجلاس کے دوران قائم کیے گئے، یہ اصول HGP کے لیے ڈیٹا شیئرنگ پالیسیوں کو تشکیل دینے میں اہم تھے اور عالمی سطح پر جینومک تحقیق کے طریقوں پر ان کا دیرپا اثر پڑا ہے۔ اس کے اہم اصول تھے:

  1. فوری ڈیٹا ریلیز: HGP کے ذریعے تیار کردہ تمام انسانی جینومک سیکوینس ڈیٹا کو عوامی ڈیٹا بیس میں جاری کیا جانا تھا، ترجیحی طور پر جنریشن کے 24 گھنٹوں کے اندر۔ اس تیز رفتار پھیلاؤ کا مقصد سائنسی دریافت کو تیز کرنا اور سماجی فوائد کو زیادہ سے زیادہ کرنا تھا۔
  2. مفت اور غیر محدود رسائی: ڈیٹا کو عالمی سائنسی برادری اور عوام کے لیے آزادانہ طور پر دستیاب کیا جانا تھا، تحقیق یا ترقی کے مقاصد کے لیے ان کے استعمال پر کوئی پابندی نہیں تھی۔
  3. دانشورانہ املاک کے دعووں کی روک تھام: شرکاء نے اس بات پر اتفاق کیا کہ بنیادی جینومک سیکوینس ڈیٹا پر کسی بھی دانشورانہ املاک کے حقوق کا دعویٰ نہیں کیا جائے گا، ایک کھلے سائنس کے اخلاق کو فروغ دیا جائے گا اور پیٹنٹنگ کی وجہ سے تحقیق میں ممکنہ رکاوٹوں کو روکا جائے گا۔

گورننس کے لحاظ سے، HGP ایک باہمی تعاون اور مربوط سائنسی اقدام تھا، نہ کہ کوئی اسٹینڈ لون تنظیم یا کارپوریشن۔ یہ ایک غیر مرکزی کوشش تھی جسے مختلف تحقیقی اداروں کو حکومتی گرانٹس اور معاہدوں کے ذریعے فنڈ کیا گیا تھا۔ اس کے بجٹ کا ایک حصہ (3-5%) انسانی جینوم کی ترتیب سے متعلق اخلاقی، قانونی اور سماجی خدشات کا مطالعہ کرنے اور ان سے نمٹنے کے لیے وقف تھا۔

AI سیفٹی اور اوپن سورس AI کو جوڑنا

اوپن سورس AI کا ایک اور اہم فائدہ AI سیفٹی ریسرچ میں اس کا کردار ہے۔

2024 میں AI سیول سمٹ نے خاص طور پر وجودی خطرات پر توجہ مرکوز کی ایسے وقت میں جب AICs کو باقی دنیا پر نمایاں برتری حاصل تھی۔ مئی 2024 تک، گوگل کے سابق CEO ایرک شمٹ نے دعویٰ کیا کہ امریکہ AI میں چین سے 2-3 سال آگے ہے، جب کہ یورپ ضابطے میں اتنا مصروف تھا کہ وہ متعلقہ نہیں تھا۔ اگر سمٹ کامیاب ہو جاتی، تو اس نے مؤثر طریقے سے AI سیفٹی کے فیصلوں کا کنٹرول ان کارپوریشنز کے حوالے کر دیا ہوتا۔ خوش قسمتی سے، ایسا نہیں ہوا۔

اب جب کہ اوپن سورس AI تکنیکی فرق کو ختم کر رہا ہے، حفاظتی مباحثوں کو اب صرف مٹھی بھر غالب کھلاڑیوں کی طرف سے طے نہیں کیا جائے گا۔ اس کے بجائے، اسٹیک ہولڈرز کا ایک وسیع اور زیادہ متنوع گروپ - جس میں محققین، پالیسی ساز، اور یورپ، ہندوستان، چین اور ابوظہبی کی AI لیبز شامل ہیں - کو AICs کے ساتھ مل کر بحث کو تشکیل دینے کا موقع ملتا ہے۔

مزید برآں، اوپن سورس AI عالمی ڈیٹرنس صلاحیتوں کو بڑھاتا ہے، اس بات کو یقینی بناتا ہے کہ کوئی بھی ایک اداکار احتساب کے بغیر جدید AI سسٹمز پر اجارہ داری یا غلط استعمال نہیں کر سکتا۔ AI سیفٹی کے لیے یہ غیر مرکزی نقطہ نظر عالمی AI ایکو سسٹم میں صلاحیتوں اور نگرانی دونوں کو زیادہ مساوی طور پر تقسیم کر کے ممکنہ وجودی خطرات کو کم کرنے میں مدد کرے گا۔

پیرس کے اصولوں کے ساتھ ایک انسانی AI پروجیکٹ

اگلے ہفتے پیرس میں AI ایکشن سمٹ AI کے مستقبل کو تشکیل دینے میں کیا کردار ادا کر سکتی ہے؟

یہ عالمی سطح پر اوپن سورس AI کی ترقی کو آگے بڑھانے اور اس کی حمایت کے لیے، ہیومن جینوم پروجیکٹ کے طرز پر، ایک انسانی AI پروجیکٹ قائم کرنے کا ایک اہم موقع پیش کرتا ہے۔ موجودہ اوپن سورس شراکتیں، یورپی AI لیبز سے لے کر DeepSeek تک، پہلے ہی اس شعبے کو تیز کر رہی ہیں اور AICs کے ساتھ فرق کو ختم کرنے میں مدد کر رہی ہیں۔

AI کی صلاحیتیں عام اوپن سورس ایکو سسٹم کی پختگی سے نمایاں طور پر بڑھی ہیں، جس میں ہزاروں بالغ منصوبے، سرشار گورننس ماڈلز، اور انٹرپرائز، اکیڈمیا اور حکومت میں گہری انضمام ہے۔

AI اوپن سورس ایکو سسٹم Github اور Gitlab جیسے پلیٹ فارمز سے بھی فائدہ اٹھاتا ہے۔ حال ہی میں، اوپن سورس AI کے لیے وقف پلیٹ فارمز، جیسے Hugging Face - ایک امریکی کارپوریشن جس کی بنیاد تین فرانسیسی کاروباریوں نے رکھی ہے - کمیونٹی کے لیے تقسیم کے پلیٹ فارمز کے طور پر ایک اہم کردار ادا کرنا شروع کر دیا ہے۔

1990 کی دہائی کے اوائل میں انسانی جینوم کی ترتیب کے مقابلے میں اوپن سورس AI ایکو سسٹم کی نسبتاً پختگی کو دیکھتے ہوئے، اوپن سورس AI ایک انسانی AI پروجیکٹ سے کیسے فائدہ اٹھا سکتا ہے؟

ایک کے لیے، یورپی یونین پر اکثر AICs اور اس کی اپنی فرنٹیئر AI لیبز کی طرف سے اوپن سورس کے ضابطے پر تنقید کی جاتی ہے۔ ایک انسانی AI پروجیکٹ شرکت کرنے والے ممالک اور خطوں میں ریگولیٹری الائنمنٹ اور معیارات تیار کرنے کے لیے مشترکہ کوششوں کو وقف کر سکتا ہے۔ ایک مربوط نقطہ نظر، یورپ، ہندوستان، ابوظہبی اور چین کی ابتدائی شراکت کے ساتھ، اس مشترکہ ریگولیٹری خطے میں اوپن سورس ماڈلز کے پھیلاؤ کو آسان بنا سکتا ہے (اوپن سورس کے لیے ایک قسم کا آزاد تجارتی علاقہ)۔

جب کہ حتمی طور پر ثابت نہیں ہوا، JLF میں DeepSeek کے رد عمل کو تشکیل دینے والی رقابت پر مبنی حرکیات سے مماثلتیں ہیں۔ اسی طرح، AI ریگولیشن کو جدت کو فروغ دینے اور عوامی فائدے کو زیادہ سے زیادہ کرنے پر توجہ مرکوز کرتے ہوئے تیار کیا جا سکتا ہے - انٹرپرائزز اور صارفین دونوں کے لیے - بجائے اس کے کہ AICs کی پیش رفت میں رکاوٹ ڈالنے یا فرق کو ختم کرنے کی کوشش کرنے والے گھریلو AI چیمپئنز کو روکنے کے لیے ایک ممکنہ طریقہ کار کے طور پر کام کیا جائے۔

یہ پروجیکٹ ٹیلنٹ کے تبادلے میں بھی سہولت فراہم کر سکتا ہے اور اوپن سورس AI کے لیے مشترکہ کمپیوٹ انفراسٹرکچر (توانائی کے بنیادی ڈھانچے سے منسلک) کو فنڈ فراہم کر سکتا ہے۔ نیچے دیے گئے چارٹ سے یہ ظاہر ہوتا ہے کہ دنیا کے کچھ حصوں میں باصلاحیت STEM گریجویٹس کو اس وقت اپنے ملک میں عالمی معیار کے AI انفراسٹرکچر تک رسائی حاصل کرنے میں مشکلات کا سامنا کرنا پڑ سکتا ہے۔

تعاون کا ایک اور شعبہ ماڈلز اور ڈیٹا سیٹس کے لیے کھلے رسائی کے معیارات پر بہترین طریقوں کو قائم کرنا ہو گا، جس میں وزن، کوڈ اور دستاویزات شامل ہوں۔

یہ پروجیکٹ AI سیفٹی ریسرچ پر عالمی تعاون کو بھی فروغ دے سکتا ہے۔ الائنمنٹ کے مسائل کو ٹھیک کرنے کے لیے خفیہ طور پر دوڑ لگانے کے بجائے، پیرس سے بیجنگ سے بنگلور تک کے محققین ماڈلز کا جائزہ لینے اور خطرات کو کم کرنے کے لیے مل کر کام کر سکتے ہیں۔ تمام حفاظتی نتائج (مثال کے طور پر، نقصان دہ آؤٹ پٹس کو کم کرنے کے طریقے یا تشریح کے لیے ٹولز) کو فوری طور پر کھلے ڈومین میں شیئر کیا جا سکتا ہے۔

یہ اصول تسلیم کرے گا کہ AI سیفٹی ایک عالمی عوامی بھلائی ہے - ایک لیب میں ایک پیش رفت (مثال کے طور پر، AI استدلال کو شفاف بنانے کے لیے ایک نیا الگورتھم) سب کو فائدہ پہنچانا چاہیے، اسے ملکیتی نہیں رکھا جانا چاہیے۔ مشترکہ حفاظتی بینچ مارکس اور چیلنج ایونٹس کو اجتماعی ذمہ داری کے کلچر کی حوصلہ افزائی کے لیے منظم کیا جا سکتا ہے۔ حفاظتی تحقیق کو جمع کرنے سے، اس منصوبے کا مقصد AI کے ممکنہ غلط استعمال یا حادثات سے آگے رہنا ہے، عوام کو یقین دلانا ہے کہ طاقتور AI سسٹمز کو احتیاط کے ساتھ سنبھالا جا رہا ہے۔

2023 میں بلیچلے پارک میں UK AI سیفٹی سمٹ میں وجودی خطرے پر توجہ مرکوز کرنے سے، جوہری پھیلاؤ کے مشابہت پر زیادہ زور دینے سے، ان دیگر شعبوں کا جائزہ لینے کا موقع ضائع ہو گیا جہاں حفاظت کو عوامی بھلائی سمجھا جاتا ہے: سائبر سیکیورٹی، اینٹی بائیوٹکس اور امیونولوجی (کووڈ-19 کے بعد کئی دلچسپ اقدامات کے ساتھ)، اور ایوی ایشن سیفٹی۔

یہ پروجیکٹ محفوظ اور جدید AI سسٹمز کی ترقی کو فروغ دینے کے لیے نجی ARC پرائز فاؤنڈیشن کے ذریعے کیے جانے والے کام کے ساتھ شراکت داری اور اسے آگے بڑھا سکتا ہے۔ ARC پرائز، جس کی مشترکہ بنیاد François Chollet، Keras اوپن سورس لائبریری کے تخلیق کار، اور Mike Knoop، Zapier سافٹ ویئر کمپنی کے شریک بانی نے رکھی ہے، ایک غیر منافع بخش تنظیم ہے جو مصنوعی جنرل انٹیلی جنس (AGI) کی تحقیق کو آگے بڑھانے کے لیے عوامی مقابلوں کی میزبانی کرتی ہے۔ ان کا فلیگ شپ ایونٹ، ARC پرائز مقابلہ، شرکاء کو $1 ملین سے زیادہ کی پیشکش کرتا ہے جو ARC-AGI بینچ مارک کے لیے تیار اور اوپن سورس حل تیار کر سکتے ہیں - ایک ایسا ٹیسٹ جو AI سسٹم کی عام کرنے اور نئی مہارتوں کو مؤثر طریقے سے حاصل کرنے کی صلاحیت کا جائزہ لینے کے لیے ڈیزائن کیا گیا ہے۔

ARC پرائز فاؤنڈیشن کا اوپن سورس حل اور عوامی مقابلوں پر زور انسانی AI پروجیکٹ کے AI کی ترقی میں بین الاقوامی تعاون اور شفافیت کو فروغ دینے کے اہداف کے ساتھ ہم آہنگ ہے، جیسا کہ ARC پرائز فاؤنڈیشن کی ویب سائٹ پر ‘AGI’ کے تحت بیان کیا گیا ہے:

‘LLMs کو ناقابل تصور حد تک وسیع مقدار میں ڈیٹا پر تربیت دی جاتی ہے، پھر بھی وہ ان سادہ مسائل کے مطابق ڈھالنے سے قاصر رہتے ہیں جن پر انہیں تربیت نہیں دی گئی ہے، یا نئی ایجادات کرنے سے قاصر رہتے ہیں، چاہے وہ کتنی ہی بنیادی کیوں نہ ہوں۔ مضبوط مارکیٹ کی ترغیبات نے فرنٹیئر AI ریسرچ کو بند سورس کرنے پر مجبور کیا ہے۔ تحقیقی توجہ اور وسائل کو ایک مردہ انجام کی طرف کھینچا جا رہا ہے۔ ARC پرائز کو محققین کو نئی تکنیکی طریقوں کو دریافت کرنے کی ترغیب دینے کے لیے ڈیزائن کیا گیا ہے جو کھلی AGI پیش رفت کو آگے بڑھاتے ہیں۔’

HGP کی طرح، انسانی AI پروجیکٹ اپنے فنڈنگ کا کچھ حصہ اخلاقی گورننس اور نگرانی کے لیے وقف کرے گا۔ اس میں کاپی رائٹ کے بارے میں بات چیت شامل ہوگی۔ یہ پروجیکٹ معاشرے کو اس پر غور کرنے میں مدد کر سکتا ہے کہ تربیت میں معلومات کے بہترین ذریعہ تک مفت رسائی حاصل کرنے کے اخلاقیات کیا ہیں جب کہ اس کے اوپر ملکیتی ماڈل تیار کیے جائیں۔ حیاتیات کے شعبے میں، یہ بات مشہور ہے کہ پروٹین ڈیٹا بینک، جو گوگل ڈیپ مائنڈ کے AlphaFold ماڈل کے لیے پروٹین کی ساخت کی پیشین گوئی کرنے کے لیے اہم تھا، کو 50 سال کی مدت میں $10 بلین کی فنڈنگ کی ضرورت تھی۔ یہ پروجیکٹ اس بارے میں سوچنے میں مدد کر سکتا ہے کہ ہم AI کی ترقی کو کیسے فنڈ دیتے رہیں یا ملکیتی AICs کو اصل کام کے تخلیق کاروں کے ساتھ آمدنی کیسے بانٹنی چاہیے۔

یہ پیرس کے اصول اور انسانی AI پروجیکٹ مل کر AI کو عالمی سطح پر زیادہ کھلے، باہمی تعاون اور اخلاقی انداز میں آگے بڑھانے میں مدد کریں گے۔ وہ موجودہ اوپن سورس سافٹ ویئر اور AI سے متعلق فریم ورکس اور پلیٹ فارمز کے اندر، یورپ سے مشرق وسطیٰ، ہندوستان اور اب چین تک کے معروف اوپن سورس شراکت داروں کی کامیابیوں پر استوار ہوں گے۔

AI کے ساتھ تاریخ کی شاعری

ہمارے سامنے موقع بہت بڑا ہے۔ Mistral AI، kyutai، BFL، Stability، اور حال ہی میں DeepSeek نے عوام کو امید دلائی ہے کہ ایک ایسا مستقبل جہاں تعاون ملکیتی AICs کا مقابلہ کرے یا اس سے بھی آگے نکل جائے، ممکن ہے۔

ہم ابھی اس تکنیکی پیش رفت کے ابتدائی مراحل میں ہیں۔ ہمیں اس شعبے میں AICs کی شراکت کے لیے شکر گزار ہونا چاہیے۔ AI ایکشن سمٹ کو بے مثال پیمانے پر باہمی تعاون سے جدت کو فروغ دینے اور زیادہ سے زیادہ کھلاڑیوں کو تاریخ کے صحیح رخ پر لانے کا موقع ہونا چاہیے۔

یہ 1789 دوبارہ ہے۔ ہم تکنیکی خودمختاری کے لیے ایک لڑائی، طاقت کی غیر مرکزیت، اور AI کو عوامی بھلائی کے طور پر دیکھ رہے ہیں۔ اور 1789 کی طرح، اس انقلاب کو روکا نہیں جائے گا۔