جدید گفتگو والی مصنوعی ذہانت (conversational artificial intelligence) پلیٹ فارمز کی تیز رفتار ترقی نے بلاشبہ ڈیجیٹل تعاملات کو نئی شکل دی ہے، جس سے معلومات کے حصول، مواد کی تخلیق، اور خودکار مواصلات میں بے مثال صلاحیتیں پیش کی گئی ہیں۔ ChatGPT
اور اس کے ہم عصر جیسے ٹولز نے عالمی تخیل کو اپنی گرفت میں لے لیا ہے، جس سے بڑے لسانی ماڈلز (LLMs
) کی طاقت کا مظاہرہ ہوتا ہے جو انسانوں جیسی بات چیت کی نقل کر سکتے ہیں اور پیچیدہ کام انجام دے سکتے ہیں۔ تاہم، اس تکنیکی اضافے کا عالمی سطح پر خیرمقدم نہیں کیا گیا۔ اس کے بجائے، قوموں کی بڑھتی ہوئی تعداد رکاوٹیں کھڑی کر رہی ہے، ان طاقتور AI سسٹمز پر صریح پابندیاں یا سخت ضوابط نافذ کر رہی ہے۔ یہ پسپائی خدشات کے ایک پیچیدہ جال سے پیدا ہوتی ہے، جس میں انفرادی رازداری، غلط معلومات کے ممکنہ ہتھیار، قومی سلامتی کو لاحق خطرات، اور سیاسی و نظریاتی کنٹرول برقرار رکھنے کی خواہش کے بارے میں بے چینی شامل ہے۔ ان پابندیوں کے پیچھے متنوع محرکات کو سمجھنا AI گورننس کے بدلتے ہوئے عالمی منظر نامے کو سمجھنے کے لیے بہت ضروری ہے۔ آج دنیا بھر کی دارالحکومتوں میں کیے گئے فیصلے AI کی ترقی اور تعیناتی کی رفتار کو نمایاں طور پر تشکیل دیں گے، جس سے رسائی اور کنٹرول کا ایک ایسا پیچیدہ نظام بنے گا جو گہری جڑوں والی قومی ترجیحات اور خوف کی عکاسی کرتا ہے۔
اٹلی کا موقف: رازداری کے تقاضوں نے عارضی روک لگائی
ایک ایسے اقدام میں جس کی گونج مغربی دنیا میں سنائی دی، اٹلی ایک بڑے جنریٹو AI پلیٹ فارم کے خلاف پابندی والے اقدامات اختیار کرنے والے قابل ذکر ابتدائی ممالک میں سے ایک بن گیا۔ مارچ 2023 میں، اطالوی ڈیٹا پروٹیکشن اتھارٹی، جسے Garante per la protezione dei dati personali کے نام سے جانا جاتا ہے، نے ملک کی سرحدوں کے اندر OpenAI
کی ChatGPT
سروس کی عارضی معطلی کا حکم دیا۔ یہ فیصلہ محض تجریدی خوف پر مبنی نہیں تھا بلکہ یورپی یونین کے جنرل ڈیٹا پروٹیکشن ریگولیشن (GDPR
) میں درج سخت ڈیٹا پرائیویسی ضوابط کی عدم تعمیل کے مخصوص الزامات پر مبنی تھا۔
Garante نے کئی اہم نکات اٹھائے:
- ڈیٹا اکٹھا کرنے کے لیے قانونی بنیاد کا فقدان: ایک بنیادی تشویش ذاتی ڈیٹا کی وہ وسیع مقدار تھی جو مبینہ طور پر
OpenAI
نےChatGPT
کو چلانے والے الگورتھم کو تربیت دینے کے لیے جمع کی تھی۔ اطالوی اتھارٹی نے اس بڑے پیمانے پر جمع کرنے اور پروسیسنگ کے قانونی جواز پر سوال اٹھایا، خاص طور پر کہ آیا صارفین نےGDPR
کے مطابق باخبر رضامندی دی تھی۔ استعمال شدہ مخصوص ڈیٹاسیٹس اور استعمال شدہ طریقوں کے بارے میں غیر شفافیت نے ان خدشات کو ہوا دی۔ - ناکافی عمر کی تصدیق کے میکانزم: Garante نے نابالغوں کو سروس تک رسائی سے روکنے کے لیے مضبوط نظاموں کی عدم موجودگی کو اجاگر کیا۔
ChatGPT
کی تقریباً کسی بھی موضوع پر مواد تیار کرنے کی صلاحیت کو دیکھتے ہوئے، کم عمر صارفین کو ممکنہ طور پر نامناسب یا نقصان دہ مواد سے روشناس کرانے کے بارے میں اہم خدشات تھے۔GDPR
بچوں کے ڈیٹا پر کارروائی کرنے پر سخت پابندیاں عائد کرتا ہے، اور مؤثر عمر کی تصدیق کے گیٹس کو نافذ کرنے میں سمجھی جانے والی ناکامی کو ایک سنگین خلاف ورزی سمجھا گیا۔ - معلومات کی درستگی اور غلط معلومات کا امکان: اگرچہ یہ پابندی کی بنیادی قانونی بنیاد نہیں تھی، اتھارٹی نے AI چیٹ بوٹس کے افراد کے بارے میں غلط معلومات فراہم کرنے کے امکان کو بھی نوٹ کیا، جو ممکنہ طور پر ساکھ کو نقصان پہنچا سکتا ہے یا جھوٹ پھیل سکتا ہے۔
OpenAI
نے Garante کے مطالبات کو پورا کرنے کے لیے فعال طور پر جواب دیا۔ کمپنی نے اپنے ڈیٹا پروسیسنگ کے طریقوں کے بارے میں شفافیت بڑھانے کے لیے کام کیا، صارفین کو واضح وضاحتیں فراہم کیں کہ ان کی معلومات کیسے استعمال ہوتی ہیں۔ اہم بات یہ ہے کہ اس نے سائن اپ کے وقت زیادہ نمایاں عمر کی تصدیق کے اقدامات نافذ کیے اور یورپی صارفین کو اپنے ڈیٹا پر زیادہ کنٹرول دینے والے ٹولز متعارف کروائے، بشمول ماڈل ٹریننگ کے لیے ان کے تعاملات کے استعمال سے آپٹ آؤٹ کرنے کے اختیارات۔ ان ایڈجسٹمنٹس کے بعد، جن کا مقصد سروس کو GDPR
اصولوں کے ساتھ زیادہ قریب سے ہم آہنگ کرنا تھا، پابندی تقریباً ایک ماہ بعد اٹھا لی گئی۔ اٹلی کی عارضی ناکہ بندی نے دنیا بھر کی ٹیک کمپنیوں کو ایک طاقتور یاد دہانی کے طور پر کام کیا کہ یورپی ریگولیٹری ماحول، خاص طور پر ڈیٹا پرائیویسی کے حوالے سے، تعمیل پر محتاط توجہ کی ضرورت ہے۔ اس نے یورپی یونین کے اندر ڈیٹا پروٹیکشن اتھارٹیز کی طاقت کو اجاگر کیا کہ وہ ضوابط نافذ کریں اور یہاں تک کہ سب سے بڑے عالمی ٹیکنالوجی پلیئرز سے بھی جوابدہی کا مطالبہ کریں، جس سے اسی طرح کے خدشات سے نبرد آزما دیگر ممالک کے لیے ایک ممکنہ مثال قائم ہوئی۔
چین کا دیواروں والا باغ: سخت نگرانی میں گھریلو AI کی کاشت
چین کا گفتگو والی AI کے بارے میں نقطہ نظر اس کی طویل عرصے سے جاری حکمت عملی سے گہرا تعلق رکھتا ہے جس کے تحت وہ اپنی سرحدوں کے اندر معلومات کے بہاؤ پر سخت کنٹرول برقرار رکھتا ہے۔ ملک انٹرنیٹ سنسرشپ کے ایک نفیس نظام کے تحت کام کرتا ہے، جسے اکثر ‘Great Firewall’ کہا جاتا ہے، جو بہت سی غیر ملکی ویب سائٹس اور آن لائن خدمات تک رسائی کو روکتا ہے۔ لہذا، یہ کوئی تعجب کی بات نہیں تھی کہ ChatGPT
جیسے عالمی سطح پر مقبول AI چیٹ بوٹس کو مین لینڈ چین کے اندر تیزی سے ناقابل رسائی بنا دیا گیا۔
اس کی منطق سادہ سنسرشپ سے آگے بڑھتی ہے؛ یہ ایک کثیر جہتی حکومتی حکمت عملی کی عکاسی کرتی ہے:
- غیر منظور شدہ معلومات اور اختلاف رائے کی روک تھام: بنیادی محرک حکومت کی یہ تشویش ہے کہ عالمی انٹرنیٹ سے وسیع ڈیٹاسیٹس پر تربیت یافتہ بے قابو AI ماڈلز ایسی معلومات یا نقطہ نظر پھیلا سکتے ہیں جو چینی کمیونسٹ پارٹی کے سرکاری بیانیے سے متصادم ہوں۔ گہرے خدشات ہیں کہ اس طرح کے ٹولز کو اختلاف رائے کو منظم کرنے، ‘نقصان دہ’ نظریات پھیلانے، یا ریاستی سنسرشپ میکانزم کو نظرانداز کرنے کے لیے استعمال کیا جا سکتا ہے، جس سے سماجی استحکام اور سیاسی کنٹرول کو نقصان پہنچ سکتا ہے۔
- غلط معلومات کا مقابلہ (ریاست کی تعریف کے مطابق): جبکہ مغربی ممالک AI کے غلط معلومات پیدا کرنے کے بارے میں فکر مند ہیں، بیجنگ کی تشویش ان معلومات پر مرکوز ہے جنہیں وہ سیاسی طور پر حساس یا عدم استحکام کا باعث سمجھتا ہے۔ حکومتی نگرانی سے باہر کام کرنے والے AI کو اس طرح کے مواد کے لیے ایک غیر متوقع ویکٹر کے طور پر دیکھا جاتا ہے۔
- تکنیکی خودمختاری کو فروغ دینا: چین مصنوعی ذہانت میں عالمی رہنما بننے کی خواہش رکھتا ہے۔ غیر ملکی AI خدمات کو مسدود کرنا گھریلو متبادلات کے لیے ایک محفوظ مارکیٹ بناتا ہے۔ یہ حکمت عملی مقامی AI چیمپئنز کی ترقی کی حوصلہ افزائی کرتی ہے، اس بات کو یقینی بناتی ہے کہ اس اہم ٹیکنالوجی کی ترقی اور تعیناتی قومی مفادات اور ریگولیٹری فریم ورک کے مطابق ہو۔
Baidu
، اپنےErnie Bot
کے ساتھ،Alibaba
، اورTencent
جیسی کمپنیاں فعال طور پر چینی مارکیٹ کے لیے موزوں اور حکومتی ہدایات کے مطابقLLMs
تیار کر رہی ہیں۔ - ڈیٹا سیکیورٹی: AI کی ترقی کو مقامی رکھنا چین کے بڑھتے ہوئے سخت ڈیٹا سیکیورٹی قوانین کے مطابق بھی ہے، جو ڈیٹا کی سرحد پار منتقلی کو کنٹرول کرتے ہیں اور اہم معلوماتی انفراسٹرکچر آپریٹرز سے مقامی طور پر ڈیٹا ذخیرہ کرنے کا مطالبہ کرتے ہیں۔ گھریلو AI پر انحصار غیر ملکی پلیٹ فارمز پر انحصار کم کرتا ہے جو چینی صارف کا ڈیٹا بیرون ملک منتقل کر سکتے ہیں۔
لہذا، چین کی ‘پابندی’ خود AI ٹیکنالوجی کو مسترد کرنے کے بارے میں کم ہے اور اس بات کو یقینی بنانے کے بارے میں زیادہ ہے کہ اس کی ترقی اور اطلاق ریاست کے زیر کنٹرول ماحولیاتی نظام کے اندر ہو۔ مقصد یہ ہے کہ AI کے معاشی اور تکنیکی فوائد کو بروئے کار لایا جائے جبکہ غیر ملکی پلیٹ فارمز تک غیر محدود رسائی سے وابستہ سمجھے جانے والے سیاسی اور سماجی خطرات کو کم کیا جائے۔ یہ نقطہ نظر ایک منفرد AI منظر نامے کو فروغ دیتا ہے جہاں جدت طرازی کی حوصلہ افزائی کی جاتی ہے، لیکن صرف ریاست کی طرف سے مقرر کردہ واضح حدود کے اندر۔
روس کا ڈیجیٹل آہنی پردہ: قومی سلامتی اور معلوماتی کنٹرول
غیر ملکی گفتگو والی AI پر روس کا موقف اس کی وسیع تر جیو پولیٹیکل پوزیشننگ اور قومی سلامتی اور تکنیکی خودمختاری پر گہری توجہ کی عکاسی کرتا ہے، خاص طور پر مغربی ممالک کے ساتھ بڑھتی ہوئی کشیدگی کے درمیان۔ اگرچہ یہ ہمیشہ اٹلی کے عارضی اقدام جیسی واضح، وسیع پیمانے پر publicized پابندیوں کے طور پر ظاہر نہیں ہوتا، ChatGPT
جیسے پلیٹ فارمز تک رسائی محدود یا ناقابل اعتبار رہی ہے، اور حکومت فعال طور پر گھریلو متبادلات کو فروغ دیتی ہے۔
روس کی حدود کے پیچھے کلیدی محرکات میں شامل ہیں:
- قومی سلامتی کے خدشات: روسی حکومت غیر ملکی ٹیکنالوجی پلیٹ فارمز پر شدید عدم اعتماد رکھتی ہے، خاص طور پر ان ممالک سے جو مخالف سمجھے جاتے ہیں۔ واضح خدشات ہیں کہ بیرون ملک تیار کردہ نفیس AI چیٹ بوٹس کو جاسوسی، انٹیلی جنس جمع کرنے، یا روسی مفادات کے خلاف ہدایت کردہ سائبر وارفیئر آپریشنز کے لیے استعمال کیا جا سکتا ہے۔ ان ٹولز کی حساس معلومات تک رسائی یا غیر ملکی اداکاروں کے ذریعے ہیرا پھیری کا امکان ایک بنیادی سیکورٹی تشویش ہے۔
- غیر ملکی اثر و رسوخ اور ‘معلوماتی جنگ’ کا مقابلہ: ماسکو معلومات کے کنٹرول کو قومی سلامتی کا ایک اہم عنصر سمجھتا ہے۔ غیر ملکی AI چیٹ بوٹس کو مغربی پروپیگنڈے، ‘جعلی خبروں’، یا روس کے اندر سیاسی صورتحال کو غیر مستحکم کرنے یا رائے عامہ میں ہیرا پھیری کے مقصد سے بنائے گئے بیانیوں کے لیے ممکنہ راستوں کے طور پر دیکھا جاتا ہے۔ رسائی کو محدود کرنا سمجھی جانے والی معلوماتی جنگی مہموں کے خلاف ایک دفاعی اقدام ہے۔
- گھریلو ٹیکنالوجی کو فروغ دینا: چین کی طرح، روس بھی ‘ڈیجیٹل خودمختاری’ کی حکمت عملی پر عمل پیرا ہے، جس کا مقصد غیر ملکی ٹیکنالوجی پر اپنا انحصار کم کرنا ہے۔ اس میں AI سمیت مختلف ٹیک شعبوں میں مقامی متبادلات تیار کرنے میں اہم سرمایہ کاری شامل ہے۔
Yandex
، جسے اکثر ‘روس کا گوگل’ کہا جاتا ہے، نے اپنا AI اسسٹنٹ،Alice
(Alisa)، اور دیگر بڑے لسانی ماڈلز تیار کیے ہیں۔ ان گھریلو پلیٹ فارمز کو فروغ دینا زیادہ حکومتی نگرانی کو یقینی بناتا ہے اور AI کی ترقی کو قومی اسٹریٹجک اہداف کے ساتھ ہم آہنگ کرتا ہے۔ - ریگولیٹری کنٹرول: غیر ملکی AI کو محدود کرکے اور گھریلو آپشنز کی حمایت کرکے، روسی حکومت مواد کی اعتدال پسندی، ڈیٹا اسٹوریج (اکثر روس کے اندر ڈیٹا لوکلائزیشن کی ضرورت ہوتی ہے)، اور ریاستی سیکورٹی خدمات کے ساتھ تعاون سے متعلق اپنے ضوابط کو زیادہ آسانی سے نافذ کرسکتی ہے۔ گھریلو کمپنیاں عام طور پر اپنے غیر ملکی ہم منصبوں کے مقابلے میں حکومتی دباؤ اور قانونی تقاضوں کے لیے زیادہ حساس ہوتی ہیں۔
روس میں غیر ملکی AI پر پابندیاں اس طرح ڈیجیٹل دائرے پر کنٹرول قائم کرنے کے ایک بڑے پیٹرن کا حصہ ہیں، جو سیکورٹی خدشات، سیاسی مقاصد، اور بیرونی دباؤ اور اثرات سے محفوظ ایک خود انحصار ٹیکنالوجی سیکٹر کو فروغ دینے کی خواہش کے امتزاج سے چلتی ہیں۔ ماحول ریاست سے منظور شدہ یا ریاست سے وابستہ ٹیکنالوجی فراہم کنندگان کے حق میں ہے، جو ملک کے اندر کام کرنے کے خواہاں بین الاقوامی AI پلیٹ فارمز کے لیے چیلنجز پیدا کرتا ہے۔
ایران کا محتاط رویہ: بیرونی نظریات سے حفاظت
ایران کا مصنوعی ذہانت، بشمول گفتگو والے چیٹ بوٹس، کا ضابطہ اس کے منفرد سیاسی نظام اور مغربی ممالک کے ساتھ اس کے اکثر مخالفانہ تعلقات سے بہت زیادہ متاثر ہے۔ حکومت انٹرنیٹ تک رسائی اور مواد پر سخت کنٹرول برقرار رکھتی ہے، غیر منظم ٹیکنالوجی کو اپنی اتھارٹی اور ثقافتی اقدار کے لیے ممکنہ خطرہ سمجھتی ہے۔
غیر ملکی AI چیٹ بوٹس پر پابندیاں کئی باہم مربوط عوامل سے پیدا ہوتی ہیں:
- مغربی اثر و رسوخ اور ‘ثقافتی یلغار’ کی روک تھام: ایرانی قیادت غیر ملکی ٹیکنالوجیز کے مغربی ثقافتی اور سیاسی نظریات کے چینل کے طور پر کام کرنے کے امکان کے بارے میں گہری تشویش رکھتی ہے، جسے وہ اسلامی اقدار اور اسلامی جمہوریہ کے اصولوں کو کمزور کرنے والا سمجھتی ہے۔ عالمی ڈیٹا پر تربیت یافتہ AI چیٹ بوٹس تک غیر محدود رسائی کو شہریوں، خاص طور پر نوجوانوں کو، ممکنہ طور پر ‘تخریبی’ یا ‘غیر اسلامی’ نظریات اور نقطہ نظر سے روشناس کرانے کے خطرے کے طور پر دیکھا جاتا ہے۔
- ریاستی سنسرشپ کو نظرانداز کرنا: نفیس AI ٹولز ممکنہ طور پر صارفین کو ایرانی ریاست کی طرف سے استعمال کیے جانے والے وسیع انٹرنیٹ فلٹرنگ اور سنسرشپ میکانزم کو نظرانداز کرنے کے طریقے پیش کر سکتے ہیں۔ AI کے ذریعے آزادانہ طور پر معلومات تک رسائی یا مواد تیار کرنے کی صلاحیت حکومت کے معلوماتی منظر نامے پر کنٹرول کو چیلنج کر سکتی ہے۔
- سیاسی استحکام برقرار رکھنا: چین اور روس کی طرح، ایران بھی بے قابو معلومات کے بہاؤ کو سماجی بے چینی یا سیاسی مخالفت کے لیے ممکنہ محرک سمجھتا ہے۔ AI چیٹ بوٹس، اپنی قائل کرنے والی تحریر تیار کرنے اور مکالمے میں مشغول ہونے کی صلاحیت کے ساتھ، ایسے ٹولز کے طور پر دیکھے جاتے ہیں جو ممکنہ طور پر مظاہروں کو منظم کرنے یا حکومت مخالف جذبات پھیلانے کے لیے استعمال کیے جا سکتے ہیں۔
- ریاست سے منظور شدہ متبادلات کو فروغ دینا: اگرچہ شاید چین یا روس کی نسبت کم ترقی یافتہ ہے، لیکن ایسی AI ٹیکنالوجیز تیار کرنے یا ان کی توثیق کرنے میں دلچسپی ہے جو ریاستی ضوابط اور نظریاتی تقاضوں کے مطابق ہوں۔ صرف منظور شدہ AI ماڈلز کی اجازت دینا اس بات کو یقینی بناتا ہے کہ ٹیکنالوجی حکومت کی طرف سے مقرر کردہ حدود کے اندر کام کرتی ہے اور ایرانی قوانین یا ثقافتی اصولوں کی خلاف ورزی نہیں کرتی ہے۔
ایران کا نقطہ نظر غیر ملکی ٹیکنالوجی کے اس کے داخلی معاملات اور نظریاتی ڈھانچے پر ممکنہ اثرات کے بارے میں گہرے شکوک و شبہات سے عبارت ہے۔ AI چیٹ بوٹس کا ضابطہ ڈیٹا پرائیویسی جیسے تکنیکی خدشات (اگرچہ وہ موجود ہو سکتے ہیں) کے بارے میں کم ہے اور سیاسی کنٹرول کو برقرار رکھنے، مخصوص ثقافتی اور مذہبی اقدار کو برقرار رکھنے، اور آبادی کو ریاست کی طرف سے ناپسندیدہ سمجھے جانے والے بیرونی اثرات سے محفوظ رکھنے کے بارے میں زیادہ ہے۔ رسائی ممکنہ طور پر صرف ان AI سسٹمز کے لیے جائز ہے جن کی نگرانی اور کنٹرول کیا جا سکتا ہے، اس بات کو یقینی بناتے ہوئے کہ وہ قائم شدہ نظام کو چیلنج نہ کریں۔
شمالی کوریا کی مطلق رکاوٹ: معلوماتی تنہائی پسندی AI تک پھیلی ہوئی
شمالی کوریا معلومات اور ٹیکنالوجی پر ریاستی کنٹرول کی شاید سب سے شدید مثال کے طور پر کھڑا ہے، اور مصنوعی ذہانت، خاص طور پر عالمی سطح پر قابل رسائی چیٹ بوٹس پر اس کا موقف اسی حقیقت کی عکاسی کرتا ہے۔ ملک معلوماتی ناکہ بندی کے تحت کام کرتا ہے، اس کی آبادی کی اکثریت کے لیے انٹرنیٹ تک رسائی شدید طور پر محدود ہے۔ رسائی عام طور پر ایک چھوٹی، انتہائی جانچ پڑتال شدہ اشرافیہ تک محدود ہوتی ہے، اور تب بھی، یہ اکثر ریاست کے زیر کنٹرول انٹرانیٹ (Kwangmyong
) تک محدود ہوتی ہے۔
اس تناظر میں، غیر ملکی AI چیٹ بوٹس پر پابندی لگانے کا تصور تقریباً بے کار ہے، کیونکہ ان کے استعمال کے لیے درکار بنیادی ڈھانچہ اور رسائی عام شہریوں کے لیے موجود نہیں ہے۔ تاہم، بنیادی اصول واضح اور مطلق ہے:
- مکمل معلوماتی کنٹرول: شمالی کوریا کی حکومت کا بنیادی مقصد اپنے شہریوں کو موصول ہونے والی معلومات پر مکمل کنٹرول برقرار رکھنا ہے۔ کوئی بھی ٹیکنالوجی جو ممکنہ طور پر بیرونی معلومات، نقطہ نظر، یا مواصلاتی چینلز متعارف کرا سکتی ہے، اسے حکومت کے استحکام اور اس کی شخصیت پرستی کے لیے ایک وجودی خطرہ سمجھا جاتا ہے۔ غیر ملکی AI چیٹ بوٹس، جو عالمی ڈیٹا پر تربیت یافتہ ہیں اور غیر فلٹر شدہ معلومات فراہم کرنے کی صلاحیت رکھتے ہیں، اس کنٹرول کی ضد کی نمائندگی کرتے ہیں۔
- بیرونی دنیا سے نمائش کی روک تھام: حکومت فعال طور پر اپنی آبادی کو شمالی کوریا سے باہر کی دنیا کے بارے میں جاننے سے روکنے کے لیے کام کرتی ہے، خاص طور پر جنوبی کوریا اور مغربی ممالک میں زندگی کے بارے میں۔ AI چیٹ بوٹس آسانی سے ایسی معلومات فراہم کر سکتے ہیں، جو ممکنہ طور پر ریاستی پروپیگنڈے کو کمزور کر سکتے ہیں اور عدم اطمینان کو فروغ دے سکتے ہیں۔
- نظریاتی پاکیزگی برقرار رکھنا: حکومت اپنے جوچے (Juche) نظریے کی سخت پابندی نافذ کرتی ہے۔ متنوع عالمی نقطہ نظر سے لبریز غیر ملکی AI کو نظریاتی آلودگی کے لیے ایک ویکٹر کے طور پر دیکھا جاتا ہے جو ریاست کے بیانیے اور اتھارٹی کو چیلنج کر سکتا ہے۔
- سیکورٹی خدشات: معلوماتی کنٹرول سے ہٹ کر، غیر ملکی AI کے جاسوسی کے لیے استعمال ہونے یا مواصلات کو آسان بنانے کے بارے میں بھی گہرے سیکورٹی خدشات ہوں گے جو حکومت کو خطرہ بنا سکتے ہیں۔
دیگر ممالک کے برعکس جو AI کو ریگولیٹ، محدود، یا منتخب طور پر پابندی لگا سکتے ہیں، شمالی کوریا کا نقطہ نظر انتہائی تنہائی پسندی کی اس کی وسیع تر پالیسی کے حصے کے طور پر تقریباً مکمل اخراج میں سے ایک ہے۔ اگرچہ ریاست اندرونی طور پر مخصوص، کنٹرول شدہ ایپلی کیشنز (مثلاً، فوجی، نگرانی) کے لیے AI کی تلاش کر رہی ہو سکتی ہے، لیکن غیر ملکی گفتگو والی AI پلیٹ فارمز تک وسیع پیمانے پر رسائی کی اجازت دینے کا خیال بنیادی طور پر حکومت کی نوعیت سے مطابقت نہیں رکھتا۔ یہ عالمی سپیکٹرم کے سب سے سخت سرے کی نمائندگی کرتا ہے، جہاں بے قابو معلومات کے سمجھے جانے والے خطرات اس طرح کی ٹیکنالوجی تک کھلی رسائی کے کسی بھی ممکنہ فوائد سے کہیں زیادہ ہیں۔
کھلتی ہوئی داستان: ضابطہ بندی، جدت طرازی، اور AI فرنٹیئر
اٹلی، چین، روس، ایران، اور شمالی کوریا جیسے ممالک کی طرف سے کیے گئے متنوع اقدامات یہ واضح کرتے ہیں کہ گفتگو والی AI پر عالمی ردعمل یکساں نہیں ہے۔ ہر ملک کا نقطہ نظر اس کے سیاسی نظام، ثقافتی اقدار، معاشی عزائم، اور سمجھے جانے والے قومی سلامتی کے خطرات کا ایک منفرد عکاس ہے۔ اٹلی کی عارضی پابندی، جو یورپی یونین کے ڈیٹا پرائیویسی قانون پر مبنی ہے، جمہوری معاشروں میں قائم قانونی فریم ورک کے ذریعے استعمال کی جانے والی ریگولیٹری طاقت کو اجاگر کرتی ہے۔ چین اور روس ایک ایسا ماڈل پیش کرتے ہیں جہاں تکنیکی ترقی کو بھرپور طریقے سے آگے بڑھایا جاتا ہے، لیکن سختی سے ریاست کے زیر کنٹرول پیرامیٹرز کے اندر، استحکام، معلوماتی کنٹرول، اور غیر ملکی مقابلے سے محفوظ گھریلو صنعتوں کی کاشت کو ترجیح دی جاتی ہے۔ ایران کی توجہ نظریاتی تحفظ اور سمجھے جانے والے بیرونی مداخلت سے بچاؤ پر مرکوز ہے۔ شمالی کوریا انتہائی نقطہ کی نمائندگی کرتا ہے، جہاں معلوماتی تنہائی پسندی ایسی ٹیکنالوجیز کے خلاف تقریباً مکمل ناکہ بندی کا حکم دیتی ہے۔
یہ مختلف ردعمل AI انقلاب کے مرکز میں ایک بنیادی تناؤ کو اجاگر کرتے ہیں: جدت طرازی کو فروغ دینے اور ممکنہ خطرات کو کم کرنے کے درمیان نازک اور اکثر متنازعہ توازن۔ دنیا بھر کی حکومتیں گہرے سوالات سے نبرد آزما ہیں:
- AI کے معاشی اور سماجی فوائد کو ذمہ داری سے کیسے استعمال کیا جا سکتا ہے؟
- بڑے پیمانے پر ڈیٹا اکٹھا کرنے کے دور میں انفرادی رازداری کے تحفظ کے لیے کیا حفاظتی اقدامات ضروری ہیں؟
- آزادی اظہار کو دبائے بغیر AI سے پیدا ہونے والی غلط معلومات اور ڈس انفارمیشن کے پھیلاؤ کا مقابلہ کیسے کیا جا سکتا ہے؟
- قومی سلامتی میں AI کا کیا کردار ہونا چاہیے، اور اس سے وابستہ خطرات کا انتظام کیسے کیا جا سکتا ہے؟
- کیا سخت ضوابط نادانستہ طور پر اسی جدت طرازی کو دبا دیں گے جس کی وہ رہنمائی کرنا چاہتے ہیں، ممکنہ طور پر قوموں کو ایک اہم تکنیکی دوڑ میں پیچھے چھوڑ دیں گے؟
جیسے جیسے AI ماڈلز زیادہ نفیس ہوتے جائیں گے اور زندگی کے مختلف پہلوؤں میں ضم ہوتے جائیں گے، یہ سوالات مزید فوری ہوتے جائیں گے۔ ہم ممکنہ طور پر مصنوعی ذہانت کے لیے عالمی اصولوں اور قومی ضوابط تیار کرنے کے ایک طویل اور پیچیدہ عمل کے ابتدائی مراحل کا مشاہدہ کر رہے ہیں۔ پابندیوں اور پابندیوں کا موجودہ پیچیدہ نظام زیادہ باریک بینی والے ریگولیٹری فریم ورک میں تبدیل ہو سکتا ہے، جس میں شاید خطرے پر مبنی تشخیص، لازمی شفافیت کے تقاضے، یا بین الاقوامی تعاون کی کوششیں شامل ہوں۔ اس کے برعکس، جیو پولیٹیکل تقسیم اور مختلف قومی ترجیحات تیزی سے بلقانائزڈ عالمی AI منظر نامے کا باعث بن سکتی ہیں۔ آگے کا راستہ غیر یقینی ہے، لیکن آج حکومتوں کی طرف سے گفتگو والی AI کے بارے میں کیے گئے فیصلے انسانیت اور اس کی بڑھتی ہوئی ذہین تخلیقات کے درمیان مستقبل کے تعلقات کی بنیاد رکھ رہے ہیں۔ AI گورننس کے گرد مکالمہ محض ایک تکنیکی یا قانونی بحث نہیں ہے؛ یہ طاقت، کنٹرول، سماجی اقدار، اور ڈیجیٹل دور میں معلومات کے مستقبل کے بارے میں ایک گفتگو ہے۔