AI ضوابط پر امریکی کمپنیوں میں ٹکراؤ

ریگولیٹری بھولبلییا سے نمٹنا: اتحاد (اور پیشگی اختیار) کا مطالبہ

بہت سی بڑی AI فرموں کی جمع کرائی گئی تجاویز میں ایک مشترکہ تشویش ریاستی سطح پر AI ریگولیشنز کے بڑھتے ہوئے پیچیدہ جال کے بارے میں ہے۔ OpenAI، جو ChatGPT کا خالق ہے، نے واضح طور پر اس سے بچاؤ کا مطالبہ کیا جسے وہ ریاستی سطح پر 700 سے زیادہ مختلف بلوں کے آنے والے سیلاب کے طور پر دیکھتا ہے۔ تاہم، OpenAI کا مجوزہ حل وفاقی قانون سازی نہیں ہے، بلکہ ایک محدود، رضاکارانہ فریم ورک ہے۔ یہ فریم ورک، اہم طور پر، ریاستی ضوابط کو روک دے گا، AI کمپنیوں کو ایک قسم کی محفوظ پناہ گاہ فراہم کرے گا۔ اس تحفظ کے بدلے میں، کمپنیاں منافع بخش سرکاری معاہدوں تک رسائی حاصل کریں گی اور ممکنہ حفاظتی خطرات کے بارے میں پیشگی وارننگ حاصل کریں گی۔ حکومت کو، بدلے میں، نئے ماڈل کی صلاحیتوں کو جانچنے اور غیر ملکی ہم منصبوں کے مقابلے میں ان کا موازنہ کرنے کا اختیار دیا جائے گا۔

Google اس جذبے کی بازگشت کرتا ہے، “فرنٹیئر AI ماڈلز کے لیے ایک متحد قومی فریم ورک” کے ساتھ ریاستی قوانین کی پیشگی روک تھام کی وکالت کرتا ہے۔ Google کے مطابق، اس فریم ورک کو قومی سلامتی کو ترجیح دینی چاہیے جبکہ بیک وقت امریکی AI جدت طرازی کے لیے سازگار ماحول کو فروغ دینا چاہیے۔ تاہم، OpenAI کے برعکس، Google وفاقی AI ریگولیشن کے بنیادی طور پر مخالف نہیں ہے، بشرطیکہ یہ ٹیکنالوجی کے مخصوص اطلاقات پر توجہ مرکوز کرے۔ Google کے لیے ایک اہم انتباہ یہ ہے کہ AI ڈویلپرز کو دوسروں کے ذریعہ ان کے ٹولز کے غلط استعمال کے لیے ذمہ دار نہیں ٹھہرایا جانا چاہیے۔ Google نے ایک نئی وفاقی پرائیویسی پالیسی پر زور دینے کا موقع بھی لیا، یہ دلیل دیتے ہوئے کہ یہ AI انڈسٹری کو متاثر کرتی ہے۔

گھریلو ضابطے سے ہٹ کر، Google امریکی انتظامیہ پر زور دیتا ہے کہ وہ AI قانون سازی پر دیگر حکومتوں کے ساتھ فعال طور پر مشغول ہوں۔ کمپنی خاص طور پر ایسے قوانین کے خلاف خبردار کرتی ہے جو کمپنیوں کو تجارتی راز افشا کرنے پر مجبور کر سکتے ہیں۔ یہ ایک بین الاقوامی اصول کا تصور کرتا ہے جہاں صرف کسی کمپنی کی آبائی حکومت کو اس کے AI ماڈلز کی گہری تشخیص کرنے کا اختیار حاصل ہوگا۔

چین کا چیلنج: ایکسپورٹ کنٹرولز اور اسٹریٹجک مقابلہ

AI میں چین کی تیز رفتار ترقی کا خوف تمام بڑے کھلاڑیوں کی جمع کرائی گئی تجاویز میں بڑا ہے۔ “AI ڈفیوژن” کا اصول، جسے بائیڈن انتظامیہ نے جنوری 2024 میں چین کی جدید امریکی ٹیکنالوجی تک رسائی کو روکنے کے لیے متعارف کرایا تھا، بحث کا مرکز بن گیا۔ اگرچہ تمام کمپنیوں نے اس اصول کے وجود کو تسلیم کیا، لیکن ان کی مجوزہ ترامیم بالکل مختلف نقطہ نظر کو ظاہر کرتی ہیں۔

OpenAI “تجارتی سفارت کاری” کی حکمت عملی تجویز کرتا ہے۔ یہ اصول کے سب سے اوپر والے درجے کو بڑھانے کا مشورہ دیتا ہے، جو فی الحال امریکی AI چپس کی غیر محدود درآمدات کی اجازت دیتا ہے، تاکہ مزید ممالک کو شامل کیا جا سکے۔ شرط؟ ان ممالک کو “جمہوری AI اصولوں” کا عہد کرنا چاہیے، AI سسٹمز کو اس طرح تعینات کرنا چاہیے جو “اپنے شہریوں کے لیے زیادہ آزادیوں کو فروغ دیں”۔ یہ نقطہ نظر عالمی سطح پر اقدار سے ہم آہنگ AI گورننس کو اپنانے کی ترغیب دینے کے لیے امریکی تکنیکی قیادت سے فائدہ اٹھانے کی کوشش کرتا ہے۔

Microsoft، OpenAI کی ڈفیوژن رول کے سب سے اوپر والے درجے کو بڑھانے کی خواہش میں شریک ہے۔ تاہم، Microsoft بہتر نفاذ کی ضرورت پر بھی زور دیتا ہے۔ یہ کامرس ڈیپارٹمنٹ کے لیے وسائل میں اضافے کا مطالبہ کرتا ہے تاکہ اس بات کو یقینی بنایا جا سکے کہ جدید ترین AI چپس صرف امریکی حکومت کی طرف سے بھروسہ مند اور محفوظ تصدیق شدہ ڈیٹا سینٹرز میں برآمد اور تعینات کی جائیں۔ اس اقدام کا مقصد چینی کمپنیوں کو ایشیا اور مشرق وسطیٰ میں چھوٹے، کم جانچ پڑتال والے ڈیٹا سینٹر فراہم کنندگان کے بڑھتے ہوئے “گرے مارکیٹ” کے ذریعے طاقتور AI چپس تک رسائی حاصل کرکے پابندیوں کو روکنے سے روکنا ہے۔

Anthropic، کلاڈ AI ماڈل کا ڈویلپر، AI ڈفیوژن رول کے دوسرے درجے میں ممالک پر سخت کنٹرول کی وکالت کرتا ہے، خاص طور پر Nvidia کے H100 چپس تک ان کی رسائی کو محدود کرتا ہے۔ مزید برآں، Anthropic امریکہ پر زور دیتا ہے کہ وہ Nvidia کے H20 چپس کو شامل کرنے کے لیے ایکسپورٹ کنٹرول کو بڑھائے، جو خاص طور پر چینی مارکیٹ کے لیے موجودہ امریکی ضوابط کی تعمیل کے لیے ڈیزائن کیے گئے تھے۔ یہ Anthropic کے اس زیادہ سخت موقف کو ظاہر کرتا ہے کہ چین کو کسی بھی ایسی ٹیکنالوجی کے حصول سے روکا جائے جو اس کی AI صلاحیتوں کو بڑھا سکے۔

Google، اپنے حریفوں سے واضح علیحدگی میں، AI ڈفیوژن رول کی صریح مخالفت کا اظہار کرتا ہے۔ اپنی قومی سلامتی کے اہداف کی توثیق کو تسلیم کرتے ہوئے، Google کا استدلال ہے کہ یہ اصول “امریکی کلاؤڈ سروس فراہم کنندگان پر غیر متناسب بوجھ” ڈالتا ہے۔ یہ موقف Google کے وسیع تر خدشات کی عکاسی کرتا ہے کہ ضوابط جدت طرازی کو روک سکتے ہیں اور اس کی عالمی مسابقت کو روک سکتے ہیں۔

ڈفیوژن رول سے ہٹ کر، OpenAI Huawei چپس اور چینی “ماڈلز جو صارف کی رازداری کی خلاف ورزی کرتے ہیں اور حفاظتی خطرات پیدا کرتے ہیں جیسے IP چوری کا خطرہ” پر عالمی پابندی کا مشورہ دے کر داؤ کو مزید بڑھاتا ہے۔ اس کی بڑے پیمانے پر DeepSeek پر طنز کے طور پر بھی تشریح کی جا رہی ہے۔

کاپی رائٹ اور AI کا ایندھن: انٹلیکچوئل پراپرٹی سے نمٹنا

کاپی رائٹ کا کانٹے دار مسئلہ، خاص طور پر AI ماڈلز کی تربیت کے تناظر میں، بھی کافی توجہ حاصل کرتا ہے۔ OpenAI، یورپ کے AI ایکٹ کی واضح سرزنش میں، اس شق پر تنقید کرتا ہے جو حق رکھنے والوں کو AI تربیت کے لیے اپنے کاموں کو استعمال کرنے سے آپٹ آؤٹ کرنے کی اہلیت فراہم کرتی ہے۔ OpenAI امریکی انتظامیہ پر زور دیتا ہے کہ وہ “کم اختراعی ممالک کو امریکی AI فرموں پر اپنے قانونی نظام مسلط کرنے اور ہماری ترقی کی شرح کو کم کرنے سے روکے”۔ یہ موقف OpenAI کے اس یقین کی عکاسی کرتا ہے کہ AI میں امریکہ کی مسابقتی برتری کو برقرار رکھنے کے لیے ڈیٹا تک غیر محدود رسائی بہت ضروری ہے۔

دوسری طرف Google، “متوازن کاپی رائٹ قوانین” کا مطالبہ کرتا ہے، اور پرائیویسی قوانین بھی جو عوامی طور پر دستیاب معلومات کے لیے خود بخود چھوٹ دیتے ہیں۔ یہ ایک زیادہ باریک بینی والے نقطہ نظر کا مشورہ دیتا ہے، تخلیق کاروں کے حقوق کو تسلیم کرتے ہوئے AI کی ترقی کے لیے ڈیٹا کی اہمیت کو بھی تسلیم کرتا ہے۔ Google “غلطی سے دیے گئے AI پیٹنٹس” کا جائزہ لینے کی بھی تجویز کرتا ہے، جس میں چینی کمپنیوں کے ذریعے حاصل کیے جانے والے امریکی AI پیٹنٹس کی بڑھتی ہوئی تعداد کو اجاگر کیا گیا ہے۔

مستقبل کو طاقت دینا: انفراسٹرکچر اور توانائی کے مطالبات

جدید AI ماڈلز کو تربیت دینے اور چلانے کے لیے درکار کمپیوٹیشنل طاقت انفراسٹرکچر اور توانائی کے وسائل میں نمایاں توسیع کا تقاضا کرتی ہے۔ OpenAI، Anthropic، اور Google سبھی ٹرانسمیشن لائنوں کے لیے اجازت دینے کے عمل کو ہموار کرنے کی وکالت کرتے ہیں، جس کا مقصد نئے AI ڈیٹا سینٹرز کو سپورٹ کرنے کے لیے توانائی کے بنیادی ڈھانچے کی تعمیر کو تیز کرنا ہے۔

Anthropic ایک خاص طور پر جرات مندانہ موقف اختیار کرتا ہے، 2027 تک امریکہ میں خصوصی طور پر AI کے استعمال کے لیے 50 گیگا واٹ اضافی توانائی کا مطالبہ کرتا ہے۔ یہ تیزی سے تیار ہوتے ہوئے AI لینڈ اسکیپ کے توانائی کے بے پناہ مطالبات اور AI کے توانائی کی کھپت کا ایک بڑا محرک بننے کی صلاحیت کو اجاگر کرتا ہے۔

سیکورٹی، حکومتی اختیار، اور AI سے چلنے والی ریاست

جمع کرائی گئی تجاویز AI، قومی سلامتی اور حکومتی آپریشنز کے درمیان تعلق کو بھی ظاہر کرتی ہیں۔ OpenAI اعلیٰ AI ٹولز کے لیے سائبر سیکیورٹی کی منظوریوں کو تیز کرنے کی تجویز پیش کرتا ہے، جس سے سرکاری ایجنسیاں انہیں زیادہ آسانی سے جانچ اور تعینات کر سکیں گی۔ یہ قومی سلامتی پر مرکوز AI ماڈلز تیار کرنے کے لیے پبلک پرائیویٹ پارٹنرشپ کا بھی مشورہ دیتا ہے جن کا کوئی قابل عمل تجارتی مارکیٹ نہیں ہو سکتا، جیسے کہ درجہ بند جوہری کاموں کے لیے ڈیزائن کیے گئے ماڈل۔

Anthropic حکومتی کاموں میں AI کو ضم کرنے کے لیے تیز رفتار خریداری کے طریقہ کار کے مطالبے کی بازگشت کرتا ہے۔ خاص طور پر، Anthropic نیشنل انسٹی ٹیوٹ آف اسٹینڈرڈز اینڈ ٹیکنالوجی (NIST) اور یو ایس AI سیفٹی انسٹی ٹیوٹ کے لیے مضبوط سیکورٹی ایویلیوایشن رولز کی اہمیت پر بھی زور دیتا ہے۔

Google کا استدلال ہے کہ قومی سلامتی کی ایجنسیوں کو اپنی AI ضروریات کے لیے تجارتی اسٹوریج اور کمپیوٹ وسائل استعمال کرنے کی اجازت ہونی چاہیے۔ یہ حکومت کی جانب سے تجارتی AI تربیت کے لیے اپنے ڈیٹا سیٹس جاری کرنے اور “AI سے چلنے والی بصیرت” کو آسان بنانے کے لیے مختلف سرکاری کلاؤڈ تعیناتیوں میں کھلے ڈیٹا کے معیارات اور APIs کو لازمی قرار دینے کی بھی وکالت کرتا ہے۔

سماجی اثر: لیبر مارکیٹس اور AI سے چلنے والی تبدیلی

آخر میں، جمع کرائی گئی تجاویز AI کے وسیع تر سماجی مضمرات، خاص طور پر لیبر مارکیٹوں پر اس کے ممکنہ اثرات کو چھوتی ہیں۔ Anthropic انتظامیہ پر زور دیتا ہے کہ وہ لیبر مارکیٹ کے رجحانات پر گہری نظر رکھے اور اہم رکاوٹوں کے لیے تیاری کرے۔ Google اسی طرح تسلیم کرتا ہے کہ تبدیلیاں آنے والی ہیں، وسیع تر AI مہارتوں کی ترقی کی ضرورت پر زور دیتے ہوئے۔ Google AI تحقیق کے لیے فنڈنگ میں اضافے اور ایک پالیسی کی بھی درخواست کرتا ہے تاکہ اس بات کو یقینی بنایا جا سکے کہ امریکی محققین کو کمپیوٹ پاور، ڈیٹا اور ماڈلز تک مناسب رسائی حاصل ہو۔

خلاصہ یہ کہ، “AI ایکشن پلان” میں جمع کرائی گئی تجاویز ایک ایسے شعبے کی تصویر پیش کرتی ہیں جو ایک اہم موڑ پر ہے۔ AI ٹیکنالوجی کو آگے بڑھانے کے اپنے عزائم میں متحد ہونے کے باوجود، امریکہ کی سرکردہ کمپنیاں ریگولیشن، بین الاقوامی مقابلے اور سماجی اثرات کے پیچیدہ چیلنجوں سے نمٹنے کے بارے میں بنیادی طور پر مختلف خیالات رکھتی ہیں۔ آنے والے مہینوں اور سالوں میں یہ پتہ چلے گا کہ یہ مختلف نظریات AI کے مستقبل کو نہ صرف امریکہ میں بلکہ عالمی سطح پر کیسے تشکیل دیتے ہیں۔