DeepSeek کے R1 جیسے جدید مصنوعی ذہانت (AI) ماڈلز کے ظہور نے مغربی ٹیکنالوجی کے منظر نامے پر لہریں پیدا کر دی ہیں، جس نے AI کی ترقی سے متعلق حکمت عملیوں، خاص طور پر لاگت کی تاثیر اور جدید ترین صلاحیت کے اکثر مسابقتی مطالبات کے بارے میں ضروری خود شناسی پر اکسایا ہے۔ تاہم، مضمرات محض تکنیکی معیارات یا اقتصادی کارکردگی سے کہیں زیادہ ہیں۔ DeepSeek کی طرف سے نمایاں کردہ رفتار ایک زیادہ گہرے اور فوری غور و فکر پر مجبور کرتی ہے: مخصوص قسم کے AI کا عروج، خاص طور پر غیر جمہوری ریاستوں کی طرف سے championed کردہ، الگورتھم کے ذریعے تیزی سے تشکیل پانے والے دور میں خود جمہوریت کی مستقبل کی صحت اور اصولوں کے لیے کیا معنی رکھتا ہے؟
اس چیلنج کے مرکز میں اوپن سورس AI کا تصور ہے۔ اس سے مراد وہ AI نظام ہیں جہاں بنیادی اجزاء - بنیادی کوڈ سے لے کر تربیت کے لیے استعمال ہونے والے ڈیٹاسیٹس تک - عوامی طور پر قابل رسائی بنائے جاتے ہیں۔ یہ شفافیت صارفین کو نہ صرف ٹولز استعمال کرنے کی اجازت دیتی ہے بلکہ ان کے اندرونی کام کا مطالعہ کرنے، انہیں مخصوص مقاصد کے لیے تبدیل کرنے، اور اپنی اختراعات کا اشتراک کرنے کی بھی اجازت دیتی ہے۔ اگرچہ پیچیدہ AI ماڈلز کے تناظر میں ‘اوپن سورس’ کی قطعی تعریف پر ابھی بھی بحث جاری ہے، اس کی صلاحیت بہت زیادہ ہے۔ یہ AI کی ترقی کو جمہوری بنانے کا وعدہ کرتا ہے، ایک متحرک ایکو سسٹم کو فروغ دیتا ہے جہاں ڈویلپرز تعاون کر سکتے ہیں اور ایک دوسرے کے کام پر تعمیر کر سکتے ہیں۔ یہ باہمی تعاون کا جذبہ افراد، محققین، اور کمیونٹیز کو تعلیم، صحت کی دیکھ بھال کی فراہمی، اور مالیاتی خدمات جیسے اہم شعبوں کے لیے AI حل تیار کرنے کے لیے بااختیار بنا سکتا ہے، ممکنہ طور پر اہم جدت طرازی کو کھول سکتا ہے اور مجموعی طور پر اقتصادی ترقی کو تیز کر سکتا ہے۔
پھر بھی، یہ امید افزا تکنیکی راستہ موروثی پیچیدگیاں اور خطرات رکھتا ہے، خاص طور پر اس کی حکمرانی اور بنیادی اقدار کے حوالے سے۔ مثال کے طور پر، DeepSeek R1 ماڈل کے بارے میں رپورٹس بتاتی ہیں کہ اس میں ایسے میکانزم شامل ہو سکتے ہیں جو صارفین سے معلومات کو سنسر کرتے ہیں یا منتخب طور پر روکتے ہیں۔ یہ واحد مثال ایک بڑے خطرے کی نشاندہی کرتی ہے: جمہوری ممالک نہ صرف اعلیٰ AI کارکردگی کی تکنیکی دوڑ میں پیچھے رہنے کا خطرہ مول لے رہے ہیں۔ انہیں AI کی حکمرانی کی تشکیل کی اہم جنگ میں زمین چھوڑنے کے اتنے ہی اہم خطرے کا سامنا ہے، ممکنہ طور پر آمرانہ اصولوں کے ساتھ سرایت شدہ نظاموں کو عالمی سطح پر پھیلنے کی اجازت دیتا ہے، جو اظہار رائے کی آزادی اور معلومات تک رسائی جیسے جمہوری اصولوں کو برقرار رکھنے کے لیے ڈیزائن کیے گئے نظاموں پر سایہ ڈالتے ہیں۔
لہذا، موجودہ لمحہ ایک فعال اور مربوط ردعمل کا تقاضا کرتا ہے۔ ریاستہائے متحدہ امریکہ کے لیے یہ لازمی ہے کہ وہ اپنے جمہوری اتحادیوں کے ساتھ ایک مضبوط شراکت قائم کرے، جس میں یورپی یونین ایک خاص طور پر اہم شراکت دار ہو، تاکہ خاص طور پر اوپن سورس AI کے لیے عالمی معیارات اور بہترین طریق کار قائم کیے جا سکیں۔ اپنے موجودہ قانون سازی کے فریم ورک اور کافی مارکیٹ اثر و رسوخ کا فائدہ اٹھاتے ہوئے، ان ٹرانس اٹلانٹک شراکت داروں کو اس ابھرتے ہوئے شعبے کے لیے ایک مضبوط گورننس ڈھانچہ بنانے میں پیش پیش ہونا چاہیے۔ ایک اہم پہلا قدم اوپن سورس AI کی ایک فعال تعریف کے گرد سرکاری طور پر اکٹھا ہونا شامل ہے تاکہ ریگولیٹری وضاحت اور تاثیر کو یقینی بنایا جا سکے۔ اس کے بعد، اس بات کو یقینی بنانے کے لیے کوششوں کو مربوط طور پر تیز کرنے کی ضرورت ہے کہ جمہوری اقدار - شفافیت، انصاف، جوابدہی، اور بنیادی حقوق کا احترام - تیار اور فروغ پانے والے اوپن سورس AI ماڈلز کے اندر گہرائی سے سرایت کر جائیں۔ اس طرح کا اسٹریٹجک دباؤ ایک ایسے AI مستقبل کی راہ ہموار کرنے کے لیے ضروری ہے جو واقعی کھلا، شفاف، اور سب کے لیے بااختیار ہو، بجائے اس کے کہ جو آمرانہ کنٹرول کے ذریعے لطیف طور پر تشکیل دیا گیا ہو۔
چین کا کھلا پن کا حساب شدہ گلے لگانا
موجودہ حرکیات کو سمجھنے کے لیے AI ڈومین میں چین کی اسٹریٹجک چالوں کو سراہنے کی ضرورت ہے۔ DeepSeek کی قابل ذکر کامیابی کا ایک حصہ صرف تکنیکی مہارت نہیں ہے؛ یہ چینی کمیونسٹ پارٹی (CCP) کی طرف سے بڑھتے ہوئے واضح اشاروں کے ساتھ ہم آہنگ ہے جو اوپن سورس AI کے اصولوں کی ترتیب کو براہ راست اس کے قانونی اور پالیسی ڈھانچے میں ضم کرنے کے ارادے کی نشاندہی کرتے ہیں۔ ایک اہم اشارہ اپریل 2024 میں ماڈل AI قانون کے مسودے کے ساتھ آیا۔ یہ دستاویز واضح طور پر گھریلو اوپن سورس AI ایکو سسٹم کو فروغ دینے کے لیے بیجنگ کی حمایت کا اظہار کرتی ہے۔
اس مسودہ قانون کا آرٹیکل 19 اعلان کرتا ہے کہ ریاست ‘اوپن سورس ایکو سسٹم کی تعمیر کو فروغ دیتی ہے’ اور فعال طور پر ‘متعلقہ اداروں کو اوپن سورس پلیٹ فارمز، اوپن سورس کمیونٹیز، اور اوپن سورس پروجیکٹس کی تعمیر یا چلانے میں مدد کرتی ہے’۔ یہ مزید آگے بڑھتا ہے، کمپنیوں کو ‘سافٹ ویئر سورس کوڈ، ہارڈویئر ڈیزائنز، اور ایپلیکیشن سروسز کو عوامی طور پر دستیاب’ بنانے کی ترغیب دیتا ہے، بظاہر صنعت بھر میں اشتراک اور باہمی تعاون پر مبنی جدت طرازی کو فروغ دینے کے لیے۔ شاید سب سے زیادہ بتانے والی بات یہ ہے کہ مسودہ اوپن سورس AI ماڈل فراہم کرنے والے اداروں کے لیے قانونی ذمہ داری کو کم کرنے یا ختم کرنے کی تجویز پیش کرتا ہے، بشرطیکہ ‘قومی معیارات’ کے مطابق گورننس سسٹم قائم کیے جائیں اور ‘متعلقہ حفاظتی اقدامات’ نافذ کیے جائیں۔ یہ چین میں پچھلی AI سے متعلقہ قانون سازی سے ممکنہ طور پر ایک اہم تبدیلی کی نمائندگی کرتا ہے، جس میںاکثر صارف کے حقوق کے تحفظ پر زیادہ واضح طور پر زور دیا جاتا تھا۔ اگرچہ ابھی بھی ایک مسودہ ہے، ماڈل AI قانون کے اندر مخصوص دفعات ایک قیمتی بلیو پرنٹ پیش کرتی ہیں، جس سے یہ ظاہر ہوتا ہے کہ چین گھریلو طور پر اوپن سورس AI کو تعینات کرنے کا تصور کیسے کرتا ہے اور، اہم بات یہ ہے کہ اس کے برآمد کردہ AI ماڈلز میں کیا خصوصیات ہو سکتی ہیں۔
اس اسٹریٹجک سمت کو مزید تقویت دینے والا AI سیفٹی گورننس فریم ورک ہے، ایک دستاویز جسے چین بین الاقوامی سطح پر ‘عالمی سطح پر AI حفاظتی حکمرانی پر بین الاقوامی تعاون کو فروغ دینے’ کے لیے استعمال کرنے کا ارادہ رکھتا ہے۔ یہ فریم ورک اوپن سورس AI کے حوالے سے ملک کی بڑھتی ہوئی خود اعتمادی کی بازگشت کرتا ہے۔ چین کی نیشنل ٹیکنیکل کمیٹی 260 آن سائبرسیکیوریٹی کی طرف سے تیار کردہ - ایک ادارہ جو طاقتور سائبر اسپیس ایڈمنسٹریشن آف چائنا سے قریبی طور پر منسلک ہے، جس کے سائبرسیکیوریٹی رہنما خطوط ستمبر 2024 میں CCP نے باضابطہ طور پراپنائے تھے - فریم ورک غیر واضح طور پر بیان کرتا ہے: ‘ہمیں AI میں علم کے اشتراک کو فروغ دینا چاہیے، AI ٹیکنالوجیز کو اوپن سورس شرائط کے تحت عوام کے لیے دستیاب بنانا چاہیے، اور مشترکہ طور پر AI چپس، فریم ورکس، اور سافٹ ویئر تیار کرنا چاہیے’۔ عالمی سامعین کے لیے تیار کردہ دستاویز میں اس طرح کے مضبوط بیان کی شمولیت واضح طور پر چین کے عزائم کی نشاندہی کرتی ہے کہ وہ نہ صرف اوپن سورس AI تحریک میں حصہ لے، بلکہ اس اہم تکنیکی شعبے میں خود کو ایک سرکردہ وکیل اور معیار ساز کے طور پر پوزیشن دے۔ تاہم، ‘کھلے پن’ کا یہ حساب شدہ گلے لگانا ایک واضح طور پر کنٹرول شدہ ماحول میں کام کرتا ہے، جس کا مقصد ریاستی مقاصد کے ساتھ صف بندی کو برقرار رکھتے ہوئے اوپن سورس کی اختراعی طاقت کو بروئے کار لانا ہے۔
امریکہ کی ہچکچاہٹ: سمت پر دفاع
بحرالکاہل کے پار، ریاستہائے متحدہ میں اوپن سورس AI کے گرد بیانیہ تضادات کا مطالعہ پیش کرتا ہے۔ کچھ عرصے سے، ٹیک انڈسٹری اور اکیڈمیا کے اندر وکلاء نے اوپن سورس طریقوں کے کافی فوائد کی حمایت کی ہے۔ صنعت کی نمایاں شخصیات نے عوامی طور پر امریکی حکومت پر زور دیا ہے کہ وہ اوپن سورس AI کی ترقی کو فروغ دینے پر زیادہ اسٹریٹجک زور دے۔ ایک قابل ذکر مثال Mark Zuckerberg کا اوپن سورس ماڈل Llama 3.1 کا آغاز ہے، جس کے ساتھ ان کا یہ دعویٰ بھی ہے کہ اوپن سورس ‘دنیا کا بہترین شاٹ’ ہے جو ہر ایک کے لیے وسیع پیمانے پر ‘معاشی مواقع اور سلامتی’ پیدا کرتا ہے۔
بااثر حلقوں کی اس آواز کی وکالت کے باوجود، ریاستہائے متحدہ واضح طور پر اوپن سورس AI کی ترقی کو فروغ دینے یا رہنمائی کرنے کے لیے ڈیزائن کیا گیا کوئی اہم قانون سازی کا فریم ورک قائم کرنے میں ناکام رہا ہے۔ اگرچہ ایک امریکی سینیٹر نے 2023 میں اوپن سورس سافٹ ویئر سیکیورٹی کے لیے ایک فریم ورک بنانے کے مقصد سے ایک بل پیش کیا تھا، یہ قانون سازی بامعنی پیش رفت کے بغیر التوا کا شکار ہے۔ وفاقی ایجنسیوں نے اس مسئلے کو چھوا ہے، لیکن اکثر محتاط یا رد عمل والے موقف کے ساتھ۔ پچھلے سال، نیشنل ٹیلی کمیونیکیشنز اینڈ انفارمیشن ایڈمنسٹریشن (NTIA) نے ‘اوپن ویٹس’ والے دوہری استعمال کے AI فاؤنڈیشن ماڈلز کا جائزہ لینے والی ایک رپورٹ شائع کی۔ یہ نوٹ کرنا ضروری ہے کہ ‘اوپن ویٹس’ عام طور پر اس بات کی نشاندہی کرتا ہے کہ ماڈل کے پیرامیٹرز استعمال کے لیے دستیاب ہیں، لیکن یہ ضروری نہیں کہ واقعی اوپن سورس ہونے کے مکمل معیار پر پورا اترتا ہو (جس میں اکثر تربیتی ڈیٹا اور کوڈ تک رسائی شامل ہوتی ہے)۔ NTIA رپورٹ نے حکومت کو مشورہ دیا کہ وہ ان اوپن ویٹ ماڈلز سے وابستہ ممکنہ خطرات کی نگرانی کو تیز کرے تاکہ مناسب پابندیوں کا بہتر تعین کیا جا سکے۔ اس کے بعد، بائیڈن انتظامیہ کے حتمی AI ریگولیٹری فریم ورک نے اوپن ماڈلز کے حوالے سے قدرے نرم موقف اختیار کیا، جس میں سب سے زیادہ طاقتور کلوزڈ ویٹ ماڈلز کے لیے سخت تقاضے مقرر کیے گئے جبکہ اوپن ویٹ ماڈلز کو ان مخصوص رکاوٹوں سے بڑی حد تک خارج کر دیا گیا۔
بہر حال، جمہوری اوپن سورس AI کی حمایت کے لیے ایک واضح، فعال قومی حکمت عملی اب بھی مفقود ہے۔ ممکنہ قیادت کی تبدیلیوں کے تحت مستقبل کی سمت غیر یقینی صورتحال کی ایک اور پرت کا اضافہ کرتی ہے۔ سابق صدر Donald Trump نے اوپن سورس AI کے حوالے سے کوئی مخصوص پالیسی یا رہنمائی بیان نہیں کی ہے۔ اگرچہ انہوں نے صدر Biden کے ابتدائی AI ایگزیکٹو آرڈر کو منسوخ کر دیا تھا، لیکن جاری کردہ متبادل آرڈر میں اوپن سورس AI کی ترقی کو فروغ دینے یا اس کی سمت متعین کرنے کے لیے وقف کسی ٹھوس اقدام کا خاکہ پیش نہیں کیا گیا۔
مجموعی طور پر، امریکی نقطہ نظر بنیادی طور پر دفاعی دکھائی دیتا ہے۔ بنیادی توجہ اعلیٰ صلاحیت والے، اکثر ملکیتی، AI ماڈلز تیار کرنے پر مرکوز معلوم ہوتی ہے جبکہ بیک وقت مخالفین، خاص طور پر چین کو، جدید سیمی کنڈکٹر ٹیکنالوجی اور AI صلاحیتوں تک رسائی سے روکنے کے لیے اہم کوششیں صرف کی جا رہی ہیں۔ یہ دفاعی موقف، اگرچہ قومی سلامتی کے نقطہ نظر سے قابل فہم ہے، اہم جارحانہ حکمت عملی کو نظر انداز کرنے کا خطرہ مول لیتا ہے: جمہوری اصولوں میں جڑی ہوئی اوپن سورس AI کے عالمی ایکو سسٹم کو فعال طور پر پروان چڑھانا اور فروغ دینا۔ امریکہ اپنے تکنیکی قلعوں کی حفاظت میں مصروف نظر آتا ہے، ممکنہ طور پر کھلے، حقوق کا احترام کرنے والے AI متبادلات کے فعال پھیلاؤ کے ذریعے وسیع تر عالمی منظر نامے کی تشکیل کا موقع گنوا رہا ہے۔
یورپ کا ریگولیٹری تضاد: طاقت اور فالج
یورپی یونین، ڈیجیٹل دائرے میں اپنے جارحانہ ریگولیٹری موقف کے لیے مشہور ہے، اوپن سورس AI کے حوالے سے ایک مختلف قسم کا چیلنج پیش کرتی ہے۔ جنرل ڈیٹا پروٹیکشن ریگولیشن (GDPR) کے تاریخی نفاذ کے بعد سے، EU نے کامیابی کے ساتھ خود کو ڈیجیٹل معیشت کے لیے عالمی معیار ساز کے طور پر پوزیشن دی ہے۔ دنیا بھر کے ممالک اور ملٹی نیشنل کارپوریشنز اکثر اپنی طرز عمل کو EU تعمیل کے فریم ورک کے ساتھ ہم آہنگ کرتے ہیں، یہ رجحان جامع EU AI ایکٹ کی آمد کے ساتھ مصنوعی ذہانت کے ڈومین تک پھیلا ہوا ہے۔ اس ایکٹ کا مقصد یونین بھر میں AI سسٹمز کے لیے خطرے پر مبنی ضوابط قائم کرنا ہے۔
تاہم، جب خاص طور پر اوپن سورس AI سے نمٹنے کی بات آتی ہے، تو EU کی زبردست ریگولیٹری مشینری حیرت انگیز طور پر ہچکچاہٹ کا شکار نظر آتی ہے اور اس کی کوششیں کسی حد تک کم ترقی یافتہ ہیں۔ AI ایکٹ کا آرٹیکل 2 ایک مختصر ذکر پر مشتمل ہے، جو اوپن سورس AI ماڈلز کے لیے ضابطے سے کچھ چھوٹ دیتا ہے۔ پھر بھی، اس چھوٹ کا عملی اثر محدود معلوم ہوتا ہے، خاص طور پر چونکہ یہ عام طور پر تجارتی مقاصد کے لیے تعینات ماڈلز پر لاگو نہیں ہوتا ہے۔ یہ تنگ دائرہ کار ابھرتے ہوئے اوپن سورس AI منظر نامے پر اس کے حقیقی دنیا کے اثر کو نمایاں طور پر کم کرتا ہے۔
یہ متضاد صورتحال - اوپن سورس کو تسلیم کرتے ہوئے اسے فعال طور پر فروغ دینے میں ناکام رہنا - دیگر EU رہنمائی دستاویزات میں برقرار ہے۔ تازہ ترین جنرل پرپز AI کوڈ آف پریکٹس، جو اس بحث کی خاطر فرضی طور پر مارچ 2025 میں شائع ہوا، محفوظ، انسانی مرکز، اور قابل اعتماد AI تیار کرنے میں اوپن سورس ماڈلز کے مثبت کردار کو تسلیم کر سکتا ہے۔ تاہم، اس طرح کی دستاویزات میں اکثر بامعنی وضاحت یا ٹھوس اقدامات کی کمی ہوتی ہے جو ان ممکنہ طور پر فائدہ مند اوپن سورس AI ماڈلز کی ترقی اور وسیع پیمانے پر اپنانے کو فعال طور پر فروغ دینے کے لیے ڈیزائن کیے گئے ہوں۔ یہاں تک کہ EU کمپیٹیٹونیس کمپاس جیسے اسٹریٹجک فریم ورک کے اندر - جو بظاہر حد سے زیادہ ضابطے سے نمٹنے اور AI جیسے کلیدی شعبوں میں اسٹریٹجک مسابقت کو تقویت دینے کے لیے ڈیزائن کیا گیا ہے - ‘اوپن سورس’ کی اصطلاح واضح طور پر غائب ہے یا اسے کم سے کم توجہ ملتی ہے۔
برسلز کی طرف سے اوپن سورس AI کو مکمل طور پر اپنانے اور ریگولیٹ کرنے کے حوالے سے یہ محتاط، تقریباً خاموش، نقطہ نظر ممکنہ طور پر کئی عوامل سے پیدا ہوتا ہے۔ ایک اہم رکاوٹ اوپن سورس AI کی قطعی تعریف کرنے میں موروثی مشکل ہے۔ روایتی اوپن سورس سافٹ ویئر کے برعکس، جس میں بنیادی طور پر سورس کوڈ شامل ہوتا ہے، اوپن سورس AI میں پیچیدہ پہلے سے تربیت یافتہ ماڈلز، وسیع ڈیٹاسیٹس، اور پیچیدہ فن تعمیرات شامل ہیں۔ اوپن سورس انیشی ایٹو (OSI) جیسی تنظیموں کی کوششوں کے باوجود، عالمی سطح پر قبول شدہ قانونی تعریف کی کمی، قانونی غیر یقینی صورتحال کی ایک سطح پیدا کرتی ہے جس سے یورپی کمیشن جیسے ریگولیٹری ادارے عام طور پر غیر آرام دہ ہوتے ہیں۔
پھر بھی، اس نسبتاً غیر فعالیت کا بنیادی محرک زیادہ گہرا ہو سکتا ہے۔ GDPR جیسے دور رس ریگولیٹری نظام قائم کرنے میں EU کی کامیابی ہی کمیشن کو AI جیسی طاقتور اور تیزی سے ترقی کرتی ہوئی ٹیکنالوجی کے لیے وسیع چھوٹ پیدا کرنے سے محتاط بنا سکتی ہے، خاص طور پر جب اس کا اوپن سورس ویرینٹ کسی حد تک غیر واضح رہے۔ یہ خدشہ ہو سکتا ہے کہ اوپن سورس AI کو بہت آسانی سے اپنانا، مکمل طور پر قائم شدہ حفاظتی اقدامات کے بغیر، نادانستہ طور پر EU کے محنت سے حاصل کردہ عالمی ریگولیٹری اثر و رسوخ کو کمزور کر سکتا ہے۔ یہ ایک اسٹریٹجک جوا ہے - ممکنہ طور پر زیادہ متحرک، اگرچہ کم پیش قیاسی، کھلی جدت طرازی کے ایکو سسٹم کو فروغ دینے پر جامع کنٹرول کو ترجیح دینا - ایک جوا جسے برسلز نے، اب تک، فیصلہ کن طور پر لینے میں بہت کم دلچسپی ظاہر کی ہے۔ یہ ریگولیٹری فالج ایک خلا چھوڑتا ہے جسے دوسرے آسانی سے پُر کر رہے ہیں۔
AI کا بدلتا ہوا جیو پولیٹیکل منظر نامہ
چین کی اوپن سورس AI میں اسٹریٹجک پیش قدمی اور ریاستہائے متحدہ اور یورپی یونین کی نسبتاً ہچکچاہٹ کا سنگم مصنوعی ذہانت کے جیو پولیٹیکل میدان کو فعال طور پر نئی شکل دے رہا ہے۔ تکنیکی خود کفالت کی طرف چین کی پرعزم مہم، ایک مہم جس میں اب واضح طور پر اوپن سورس AI کے گرد اپنی حکمت عملیوں کو مستحکم کرنا شامل ہے، کو جزوی طور پر جدید کمپیوٹنگ ہارڈویئر اور سیمی کنڈکٹرز کو نشانہ بنانے والے امریکی برآمدی کنٹرول کے جواب کے طور پر سمجھا جا سکتا ہے، یہ اقدامات قومی سلامتی، اقتصادی مسابقت، اور کئی سال پہلے سے دانشورانہ املاک کے تحفظ پر امریکی خدشات کی وجہ سے نافذ کیے گئے تھے۔ چین کے جوابی اقدامات، بشمول اس کا اوپن سورس کو اپنانا، دو عالمی طاقتوں کے درمیان تکنیکی بالادستی کے لیے وسیع تر، شدید ہوتی ہوئی اسٹریٹجک مسابقت کی عکاسی کرتے ہیں۔ دریں اثنا، EU عام طور پر اس دوڑ میں اپنے اثر و رسوخ کا دعویٰ اسی پیمانے پر براہ راست تکنیکی مسابقت کے ذریعے نہیں کرتا، بلکہ بنیادی حقوق، رازداری، اور انصاف اور الگورتھمک جوابدہی جیسے جمہوری اقدار کے تحفظ پر مرکوز عالمی اصولوں کو ترتیب دے کر کرتا ہے - معیارات جنہوں نے واقعی بڑی عالمی ٹیکنالوجی فرموں کی پالیسیوں کو تشکیل دیا ہے۔
تاہم، خود کو اوپن سورس AI کے رہنما اور وکیل کے طور پر جارحانہ انداز میں پوزیشن دے کر، چین چالاکی سے ایک چیلنج - بعض مغربی ٹیکنالوجیز تک محدود رسائی - کو ایک اسٹریٹجک موقع میں بدل رہا ہے۔ یہ مؤثر طریقے سے AI کھلے پن کے اپنے مخصوص ورژن کو عالمی برادری، خاص طور پر قابل رسائی AI ٹولز کی تلاش میں ترقی پذیر ممالک کے لیے تیار اور مارکیٹ کر رہا ہے۔ DeepSeek کے R1 جیسے قابل چینی ماڈلز کا ظہور، علی بابا جیسے دیگر گھریلو ٹیک جنات کی پیشکشوں کے ساتھ، عالمی حرکیات کو تبدیل کرنا شروع کر رہا ہے۔ یہ ممکنہ طور پر خصوصی طور پر بند، ملکیتی AI ماڈلز کے لیے عالمی بھوک کو کم کرتا ہے، خاص طور پر اگر کھلے متبادل زیادہ قابل رسائی یا لاگت مؤثر دکھائی دیں۔ مثال کے طور پر، DeepSeek نے محدود پروسیسنگ پاور والے آلات کے لیے موزوں چھوٹے، کم کمپیوٹیشنل طور پر مطالبہ کرنے والے ماڈلز جاری کیے ہیں۔ Hugging Face جیسے پلیٹ فارمز، جو AI کی ترقی کا ایک بڑا مرکز ہے، نے مبینہ طور پر اپنے ماڈلز کو بہتر بنانے کے لیے DeepSeek-R1 کے تربیتی طریقوں کے پہلوؤں کا تجزیہ اور نقل کرنا شروع کر دیا ہے۔ یہاں تک کہ Microsoft، OpenAI، اور Meta جیسے مغربی ٹیک جنات بھی ماڈل ڈسٹیلیشن جیسی تکنیکوں کو تیزی سے تلاش کر رہے ہیں، جس نے جزوی طور پر DeepSeek کی پیشرفت کی وجہ سے اہمیت حاصل کی۔
یہ ابھرتا ہوا منظر نامہ چین کو AI کھلے پن کے گرد عالمی گفتگو کو فعال طور پر آگے بڑھاتے ہوئے ظاہر کرتا ہے، جو ریاستہائے متحدہ کو پہلی بار اس گفتگو پر رد عمل ظاہر کرنے اور اپنانے پر مجبور کرتا ہے۔ بیک وقت، EU اوپن سورس کے حوالے سے قانونی اور ریگولیٹری جمود کی حالت میں کسی حد تک پھنسا ہوا ہے۔ یہ عدم توازن خاص طور پر اوپن سورس AI گورننس اور پھیلاؤ کے اہم ڈومین کے اندر ایک نمایاں طاقت کا عدم توازن پیدا کرتا ہے۔
اہم بات یہ ہے کہ چین کی طرف سے پھیلائے جانے والے اوپن سورس AI کا ورژن جمہوری معاشروں کے لیے اہم خدشات رکھتا ہے۔ CCP حکمت عملی کے طور پر ایک ‘دو ٹریک’ نظام نافذ کرتا دکھائی دیتا ہے: جدت طرازی کو تیز کرنے کے لیے AI ڈویلپرز اور فرموں کے درمیان نسبتاً کھلے پن اور تعاون کی حوصلہ افزائی کرنا، جبکہ بیک وقت معلومات کے بہاؤ اور اظہار رائے کی آزادی کو محدود کرنے کے لیے عوامی سامنا کرنے والے ماڈلز کے اندر کنٹرول اور حدود کو سرایت کرنا۔ یہ ‘کھلا پن’ چین کے تکنیکی کنٹرول کے قائم کردہ نمونوں سے بہت زیادہ مشروط ہے، اکثر یہ مطالبہ کرتا ہے کہ ماڈل ان پٹ اور آؤٹ پٹ ریاست کی منظور شدہ داستانوں، CCP اقدار کے ساتھ ہم آہنگ ہوں، اور ایک مثبت قومی امیج پیش کریں۔ یہاں تک کہ اس کے عالمی سطح پر مبنی AI سیفٹی گورننس فریم ورک کے اندر، جہاں چینی حکام کھلے عام اوپن سورس اصولوں کو اپناتے ہیں، AI سے تیار کردہ مواد کے ‘نظریاتی سلامتی’ کے لیے خطرات لاحق ہونے کے بارے میں بتانے والی زبان موجود ہے - جو CCP کی سوچ اور تقریر کی آزادی پر موروثی حدود کا واضح اشارہ ہے۔
جمہوری اصولوں اور بنیادی انسانی حقوق کے تحفظ میں جڑے ایک مضبوط، متبادل فریم ورک کے بغیر، دنیا اوپن سورس AI کی چین کی زیادہ پابندی والی تشریح کی وسیع پیمانے پر تولید اور اپنانے کا خطرہ مول لیتی ہے۔ آمرانہ حکومتیں اور ممکنہ طور پر یہاں تک کہ غیر ریاستی اداکار عالمی سطح پر ان ماڈلز پر آسانی سے تعمیر کر سکتے ہیں، جو جدید سنسر شپ اور نگرانی کو ممکن بناتے ہیں جبکہ گمراہ کن طور پر یہ دعویٰ کرتے ہیںکہ وہ محض تکنیکی رسائی کو فروغ دے رہے ہیں۔ لہذا، صرف چین کی تکنیکی کارکردگی کا مقابلہ کرنے پر توجہ مرکوز کرنا ناکافی ہے۔ جمہوریتوں کو اوپن سورس AI دور کے لیے جمہوری حکمرانی قائم کرنے اور فروغ دینے میں قیادت سنبھال کر اسٹریٹجک طور پر جواب دینا چاہیے۔
ایک ٹرانس اٹلانٹک راہ ہموار کرنا
موجودہ رفتار دنیا کی سرکردہ جمہوریتوں کے درمیان فیصلہ کن کارروائی اور تجدید شدہ تعاون کا تقاضا کرتی ہے۔ ریاستہائے متحدہ اور یورپی یونین کو سنجیدگی سے اوپن سورس ڈپلومیسی کی حکمت عملی پر عمل کرنے پر غور کرنا چاہیے۔ اس میں آمرانہ متبادلات کے مقابلے کے طور پر دنیا بھر میں قابل، قابل اعتماد، اور حقوق کا احترام کرنے والے AI ماڈلز کی ترقی اور اشتراک کو فعال طور پر آگے بڑھانا شامل ہے۔ اس کوشش کا مرکز اوپن سورس AI کے لیے ایک متحدہ گورننس فریم ورک کی تخلیق ہے، جسے US اور EU مشترکہ طور پر تیار کریں۔
ایک جمہوری AI مستقبل کو مؤثر طریقے سے تشکیل دینے کے لیے، اوپن سورس AI پر ایک وقف ٹرانس اٹلانٹک ورکنگ گروپ قائم کرنا ایک اہم اگلا قدم ہے۔ اس گروپ کو جہاں مناسب ہو موجودہ ڈھانچوں، جیسے گلوبل پارٹنرشپ آن آرٹیفیشل انٹیلی جنس (GPAI) کا فائدہ اٹھانا چاہیے، لیکن فریم ورک کی ترقی کے پورے عمل میں اٹلانٹک کے دونوں اطراف کی سرکردہ ٹیکنالوجی کمپنیوں، تعلیمی محققین، اور سول سوسائٹی کے ماہرین کی فعال شرکت اور ان پٹ کو یقینی بنانا چاہیے۔ یہ جامع نقطہ نظر ایسے معیارات تیار کرنے کے لیے اہم ہے جو اصولی اور عملی دونوں ہوں۔
دوم، ریاستہائے متحدہ اور EU دونوں کو اس وژن کے پیچھے ٹھوس وسائل لگانے کی ضرورت ہے۔ اس کا مطلب ہے کہ تعلیمی اداروں، تحقیقی لیبز، اور اختراعی اسٹارٹ اپس کی طرف حکمت عملی کے ساتھ فنڈنگ کی ہدایت کرنا جو خاص طور پر اوپن سورس AI ماڈلز تیار کرنے پر مرکوز ہیں جو واضح طور پر جمہوری اقدار کے ساتھ ہم آہنگ ہوں۔ ایسے ماڈلز کی کلیدی خصوصیات میں شامل ہوں گے:
- ڈیزائن اور تربیتی ڈیٹا میں شفافیت۔
- سنسر شپ اور ہیرا پھیری کے خلاف مضبوط حفاظتی اقدامات۔
- جوابدہی اور تعصب میں کمی کے میکانزم۔
- رازداری اور بنیادی حقوق کا بلٹ ان احترام۔
ان جمہوری ماڈلز کو فروغ دینے کے لیے واشنگٹن اور برسلز دونوں میں پالیسی سازوں کی طرف سے واضح پہچان کی ضرورت ہے کہ ان اصولوں پر مبنی عالمی ایکو سسٹم کو فروغ دینے کے طویل مدتی اسٹریٹجک فوائد کھلے پن سے وابستہ سمجھے جانے والے قلیل مدتی خطرات سے نمایاں طور پر زیادہ ہیں۔ ساتھ ہی، EU کو اس مخصوص شعبے میں اپنی قائم شدہ ریگولیٹری صلاحیت کا زیادہ فیصلہ کن طور پر فائدہ اٹھانا چاہیے۔ اعلیٰ معیارات سے اپنی وابستگی کو برقرار رکھتے ہوئے، برسلز کو اوپن سورس AI کی قانونی تعریف کے حوالے سے اپنی ہچکچاہٹ پر قابو پانے اور عالمی اصولوں کی تشکیل میں چین کی بڑھتی ہوئی رفتار کا مقابلہ کرنے کے لیے واضح رہنما خطوط اور مراعات قائم کرنے کے لیے زیادہ تیزی سے کام کرنے کی ضرورت ہے۔ مزید زمین چھوڑنے سے بچنے کے لیے منظم غیر یقینی صورتحال کی ایک ڈگری کو اپنانا ضروری ہو سکتا ہے۔
اگرچہ ٹرانس اٹلانٹک تعلقات مختلف محاذوں پر وقتاً فوقتاً ہنگامہ خیزی کا سامنا کر سکتے ہیں، اوپن سورس AI میں چین کے عروج سے پیدا ہونے والا چیلنج اس ڈومین میں مقابلے پر US-EU تعاون کی قطعی ضرورت کو اجاگر کرتا ہے۔ اس اہم تکنیکی میدان میں قیادت دوبارہ حاصل کرنے کے لیے ایک مربوط، آگے کی سوچ رکھنے والے ٹرانس اٹلانٹک اقدام کی ضرورت ہے۔ اس اقدام کو فعال پالیسی سازی، ھدف شدہ تحقیقی فنڈنگ، اور جدت طرازی کے لیے حمایت کو مربوط کرنا چاہیے، جس کا مقصد ایک ایسے AI مستقبل کے لیے عالمی معیار قائم کرنا ہے جو واقعی حقوق کا احترام کرنے والا، شفاف، تخلیقی، اور دنیا بھر کے لوگوں کے لیے بااختیار ہو۔ ہچکچاہٹ بھرے مشاہدے کا وقت ختم ہو چکا ہے؛ فیصلہ کن، متحدہ کارروائی کا لمحہ اب ہے۔