X پر گروک مواد کی ذمہ داری عائد؟

AI سے تیار کردہ مواد پر حکومت کا مؤقف

ایک سرکاری ذریعے نے اس معاملے پر بات کرتے ہوئے کہا، “بظاہر، ایسا لگتا ہے کہ ہاں۔ یہ میرا ذاتی خیال ہے، لیکن اس کی قانونی طور پر جانچ پڑتال ہونی چاہیے۔” یہ بیان اس سوال کے براہ راست جواب میں تھا کہ کیا X کو گروک (Grok) کے ذریعہ تیار کردہ مواد کے لئے ذمہ دار ٹھہرایا جاسکتا ہے۔ ذریعے نے مزید واضح کیا کہ وزارت الیکٹرانکس اور انفارمیشن ٹیکنالوجی سوشل میڈیا پلیٹ فارم کے ساتھ بات چیت میں مصروف ہے۔ ان بات چیت کا مقصد گروک کے کام کرنے کے طریقہ کار کی جامع تفہیم حاصل کرنا اور اس کے آپریشنل پیرامیٹرز کا جائزہ لینا ہے۔

یہ پہلا واقعہ نہیں ہے جب ہندوستانی حکومت کو AI کے ذریعہ تیار کردہ ممکنہ طور پر پریشان کن مواد سے نمٹنا پڑا ہو۔ پچھلے سال، Google کے Gemini کی جانب سے وزیر اعظم نریندر مودی (Narendra Modi) کے خلاف کچھ متنازعہ ریمارکس دینے کے بعد AI سے متعلق فوری کارروائی اور رہنما خطوط جاری کیے گئے تھے۔ حکومت کے اس فعال انداز نے AI سے تیار کردہ مواد کو منظم کرنے کے عزم کو واضح کیا، خاص طور پر جب یہ حساس سیاسی موضوعات سے متعلق ہو۔ ذریعے نے زور دے کر کہا کہ سوشل میڈیا مواد کی نگرانی کے لئے رہنما خطوط مضبوطی سے اپنی جگہ پر موجود ہیں اور کمپنیوں سے توقع کی جاتی ہے کہ وہ ان پر سختی سے عمل کریں۔

X کا قانونی چیلنج اور IT ایکٹ کا سیکشن 79(3)

AI سے تیار کردہ مواد کی ذمہ داری کے بارے میں جاری بحث X کے ہندوستانی حکومت کے خلاف قانونی چیلنج سے مزید پیچیدہ ہو گئی ہے۔ ایلون مسک (Elon Musk) کی ملکیت والے پلیٹ فارم نے کرناٹک ہائی کورٹ میں ایک مقدمہ دائر کیا ہے، جس میں موجودہ مواد کے ضوابط کی قانونی حیثیت اور من مانی کو چیلنج کیا گیا ہے۔ X کی دلیل کا مرکز حکومت کی انفارمیشن ٹیکنالوجی (IT) ایکٹ کے سیکشن 79(3)(b) کی تشریح ہے۔

X کا دعویٰ ہے کہ یہ تشریح سپریم کورٹ کے فیصلوں کی خلاف ورزی کرتی ہے اور آن لائن اظہار رائے کی آزادی کے اصولوں کو کمزور کرتی ہے۔ سیکشن 79(3)(b) اس وقت متعلقہ ہو جاتا ہے جب کوئی ثالث، جیسے کہ سوشل میڈیا پلیٹ فارم، مجاز سرکاری اداروں کی ہدایت کے مطابق قابل اعتراض مواد کو ہٹانے میں ناکام رہتا ہے۔

معاملے کا نچوڑ عدم تعمیل کے ممکنہ نتائج میں مضمر ہے۔ اگر کوئی سوشل میڈیا پلیٹ فارم قابل اعتراض سمجھے جانے والے مواد کو ہٹانے کا انتخاب نہیں کرتا ہے، تو وہ اس صارف کے ذریعہ تیار کردہ مواد کی ذمہ داری یا ملکیت کو واضح طور پر قبول کرتا ہے۔ یہ، بدلے میں، ممکنہ قانونی چارہ جوئی کا دروازہ کھولتا ہے۔ تاہم، پلیٹ فارم کو عدالت میں اس طرح کی قانونی چارہ جوئی کو چیلنج کرنے کا حق حاصل ہے۔ یہ مواد کی اعتدال پسندی پر تنازعات کو حل کرنے میں عدلیہ کے اہم کردار کو اجاگر کرتا ہے۔ بالآخر، عدالتوں کو سوشل میڈیا پلیٹ فارمز کی جانب سے اٹھائے گئے تنازعات پر حتمی فیصلہ کرنا ہوگا۔

سیکشن 79(3)(b) کا حکومت کی جانب سے مبینہ استعمال

X کے مقدمے میں الزام لگایا گیا ہے کہ حکومت سیکشن 79(3)(b) کا فائدہ اٹھا کر ایک متوازی مواد بلاک کرنے کا طریقہ کار قائم کر رہی ہے۔ X کے مطابق، یہ طریقہ کار IT ایکٹ کے سیکشن 69A میں بیان کردہ قانونی عمل کو نظرانداز کرتا ہے۔ سیکشن 69A مواد کو بلاک کرنے کے لئے ایک قانونی طور پر طے شدہ راستہ فراہم کرتا ہے، جس میں ایک مناسب عدالتی عمل شامل ہوتا ہے۔

X کا استدلال ہے کہ حکومت کا نقطہ نظر 2015 میں سپریم کورٹ کے شریا سنگھل کیس میں دیے گئے فیصلے سے براہ راست متصادم ہے۔ اس تاریخی کیس نے یہ طے کیا کہ مواد کو بلاک کرنا صرف ایک جائز عدالتی عمل یا سیکشن 69A کے تحت قانونی طور پر طے شدہ راستے کے ذریعے ہی ہو سکتا ہے۔

مواد ہٹانے کی درخواستوں کی عدم تعمیل کے مضمرات اہم ہیں۔ اگر کوئی پلیٹ فارم 36 گھنٹے کی ونڈو کے اندر تعمیل کرنے میں ناکام رہتا ہے، تو اسے IT ایکٹ کے سیکشن 79(1) کے ذریعہ فراہم کردہ “محفوظ بندرگاہ” تحفظ سے محروم ہونے کا خطرہ ہوتا ہے۔ یہ تحفظ سوشل میڈیا پلیٹ فارمز کو صارفین کی جانب سے پوسٹ کیے گئے قابل اعتراض مواد کی ذمہ داری سے بچاتا ہے۔ اس تحفظ کے نقصان سے پلیٹ فارم کو انڈین پینل کوڈ (IPC) سمیت مختلف قوانین کے تحت جوابدہ ہونا پڑ سکتا ہے۔

IT ایکٹ کے سیکشن 79 کو سمجھنا

IT ایکٹ کا سیکشن 79 سوشل میڈیا پلیٹ فارمز کی ذمہ داریوں اور تحفظات کی وضاحت میں ایک اہم کردار ادا کرتا ہے۔ سیکشن 79(1) خاص طور پر ان پلیٹ فارمز کو تحفظ فراہم کرتا ہے، انہیں صارف کے ذریعہ تیار کردہ قابل اعتراض مواد کی ذمہ داری سے بچاتا ہے۔ یہ شق ہندوستان میں سوشل میڈیا پلیٹ فارمز کی آپریشنل آزادی کی بنیاد ہے۔

تاہم، یہ تحفظ مطلق نہیں ہے۔ سیکشن 79(2) ان شرائط کا خاکہ پیش کرتا ہے جنہیں ثالثوں کو اس تحفظ کے اہل ہونے کے لئے پورا کرنا ضروری ہے۔ ان شرائط میں عام طور پر مناسب احتیاط کے تقاضے اور مواد کی اعتدال پسندی کی پالیسیاں شامل ہوتی ہیں۔

سیکشن 79(3)، اس سیکشن کا سب سے متنازعہ حصہ، ان حالات کی تفصیل دیتا ہے جن کے تحت سوشل میڈیا پلیٹ فارمز کو دیا گیا تحفظ لاگو نہیں ہوگا۔ یہ عام طور پر اس وقت ہوتا ہے جب کوئی پلیٹ فارم مواد کو ہٹانے کے قانونی حکم کی تعمیل کرنے میں ناکام رہتا ہے۔ سیکشن 79(3) کی تشریح اور اطلاق X اور ہندوستانی حکومت کے درمیان جاری قانونی جنگ کا مرکز ہے۔

بحث کو گہرا کرنا: AI سے تیار کردہ مواد اور پلیٹ فارم کی ذمہ داری کے باریک نکات

Grok اور X کے ساتھ صورتحال مواد کی اعتدال پسندی کے دائرے میں ایک منفرد چیلنج پیش کرتی ہے۔ روایتی صارف کے ذریعہ تیار کردہ مواد کے برعکس، جہاں افراد اپنی پوسٹس کے براہ راست ذمہ دار ہوتے ہیں، AI سے تیار کردہ مواد پیچیدگی کی ایک تہہ متعارف کراتا ہے۔ سوال یہ پیدا ہوتا ہے: جب کوئی AI متنازعہ یا قابل اعتراض مواد تیار کرتا ہے تو کون ذمہ دار ہے؟

اس مسئلے پر کئی نقطہ نظر موجود ہیں۔ کچھ کا استدلال ہے کہ AI کی میزبانی کرنے والے پلیٹ فارم کو پوری ذمہ داری اٹھانی چاہئے، کیونکہ یہ AI کو چلانے کے لئے ٹیکنالوجی اور بنیادی ڈھانچہ فراہم کرتا ہے۔ دوسروں کا دعویٰ ہے کہ AI کے ڈویلپرز کو جوابدہ ہونا چاہئے، کیونکہ وہ وہی ہیں جنہوں نے AI کے رویے کو کنٹرول کرنے والے الگورتھم بنائے ہیں۔ ایک تیسرا نقطہ نظر ایک مشترکہ ذمہ داری کے ماڈل کی تجویز کرتا ہے، جہاں پلیٹ فارم اور ڈویلپرز دونوں ذمہ داری کا بوجھ بانٹتے ہیں۔

ہندوستانی حکومت کا مؤقف، جیسا کہ ذریعے نے اشارہ کیا ہے، کم از کم ابتدائی طور پر، پلیٹ فارم کو ذمہ دار ٹھہرانے کی طرف جھکاؤ رکھتا ہے۔ یہ نقطہ نظر صارف کے ذریعہ تیار کردہ مواد کے لئے موجودہ فریم ورک کے مطابق ہے، جہاں پلیٹ فارمز سے توقع کی جاتی ہے کہ وہ قابل اعتراض مواد کو معتدل اور ہٹائیں۔ تاہم، حکومت AI سے تیار کردہ مواد کی وجہ سے پیدا ہونے والے نئے چیلنجوں کو تسلیم کرتے ہوئے قانونی جانچ پڑتال کی ضرورت کو بھی تسلیم کرتی ہے۔

آزادئ اظہار اور آن لائن پلیٹ فارمز کے لیے وسیع تر مضمرات

X کے قانونی چیلنج کا نتیجہ اور AI سے تیار کردہ مواد کے بارے میں جاری بحث ہندوستان میں آزادئ اظہار اور آن لائن پلیٹ فارمز کے آپریشن کے لئے دور رس مضمرات مرتب کرے گی۔ اگر حکومت کی سیکشن 79(3)(b) کی تشریح کو برقرار رکھا جاتا ہے، تو اس سے پلیٹ فارمز پر مواد کی فعال طور پر نگرانی اور سنسر کرنے کے لئے دباؤ بڑھ سکتا ہے، جس سے آزادئ اظہار کو ممکنہ طور پر ٹھنڈا کیا جا سکتا ہے۔

دوسری طرف، اگر X کا چیلنج کامیاب ہو جاتا ہے، تو یہ مواد کے ضابطے کے لئے ایک زیادہ باریک بینی والا نقطہ نظر اختیار کرنے کا باعث بن سکتا ہے، جو نقصان دہ مواد سے نمٹنے کی ضرورت کو آزادئ اظہار کے حقوق کے تحفظ کے ساتھ متوازن کرتا ہے۔ عدالتیں اس توازن کو قائم کرنے میں اہم کردار ادا کریں گی۔

یہ معاملہ AI سے تیار کردہ مواد کے مستقبل اور اس کے ضابطے کے بارے میں بھی اہم سوالات اٹھاتا ہے۔ جیسے جیسے AI ٹیکنالوجی تیار ہوتی رہے گی اور زیادہ نفیس ہوتی جائے گی، واضح رہنما خطوط اور قانونی فریم ورک کی ضرورت تیزی سے ضروری ہوتی جائے گی۔ اس شعبے میں ہندوستانی حکومت کے اقدامات ان دوسرے ممالک کے لئے ایک مثال کے طور پر کام کر سکتے ہیں جو اسی طرح کے چیلنجوں سے نبرد آزما ہیں۔

مواد کی اعتدال پسندی کے متبادل طریقوں کی تلاش

AI سے تیار کردہ مواد کو ریگولیٹ کرنے کی پیچیدگیوں کے پیش نظر، مواد کی اعتدال پسندی کے متبادل طریقوں کی تلاش بہت ضروری ہے۔ ایک ممکنہ راستہ AI کی ترقی اور تعیناتی کے لئے صنعت بھر کے معیارات اور بہترین طریقوں کی ترقی ہے۔ اس میں AI تخلیق کاروں کے لئے اخلاقی رہنما خطوط قائم کرنا، AI الگورتھم میں شفافیت کو فروغ دینا، اور AI سے تیار کردہ مواد کی آڈٹ کے لئے میکانزم کو نافذ کرنا شامل ہو سکتا ہے۔

ایک اور نقطہ نظر صارفین کو AI کے ساتھ اپنے تعاملات کو بہتر طریقے سے کنٹرول کرنے کے لئے بااختیار بنانے پر توجہ مرکوز کر سکتا ہے۔ اس میں صارفین کو AI سے تیار کردہ مواد کو فلٹر کرنے یا جھنڈا لگانے کے لئے ٹولز فراہم کرنا، انہیں ان معلومات پر زیادہ ایجنسی دینا جو وہ استعمال کرتے ہیں۔

بالآخر، ایک کثیر جہتی نقطہ نظر جو تکنیکی حل، قانونی فریم ورک، اور صارف کو بااختیار بنانے کو یکجا کرتا ہے، AI سے تیار کردہ مواد کی وجہ سے پیدا ہونے والے چیلنجوں سے نمٹنے کا سب سے مؤثر طریقہ ہو سکتا ہے۔ اس نقطہ نظر کے لئے حکومتوں، ٹیک کمپنیوں، سول سوسائٹی کی تنظیموں، اور انفرادی صارفین کے درمیان تعاون کی ضرورت ہوگی۔

جاری مکالمے اور موافقت کی اہمیت

AI سے تیار کردہ مواد کے ارد گرد قانونی اور اخلاقی منظر نامہ مسلسل تیار ہو رہا ہے۔ اس طرح تمام اسٹیک ہولڈرز کے درمیان جاری مکالمہ ضروری ہے۔ اس مکالمے میں AI ٹیکنالوجی کے ممکنہ فوائد اور خطرات، مناسب ریگولیٹری فریم ورک کی ترقی، اور ذمہ دار AI کی ترقی اور تعیناتی کے فروغ کے بارے میں کھلی بات چیت شامل ہونی چاہئے۔

مزید برآں، ضابطے کے لئے ایک لچکدار اور موافق نقطہ نظر اپنانا بہت ضروری ہے۔ جیسے جیسے AI ٹیکنالوجی آگے بڑھے گی، ضوابط کا جائزہ لینے اور بدلتے ہوئے منظر نامے کے ساتھ ہم آہنگ ہونے کے لئے انہیں اپ ڈیٹ کرنے کی ضرورت ہوگی۔ اس کے لئے مختلف طریقوں کے ساتھ تجربہ کرنے، کامیابیوں اور ناکامیوں سے سیکھنے، اور ریگولیٹری فریم ورک کو مسلسل بہتر بنانے کی خواہش کی ضرورت ہے۔ مقصد ایک ایسا نظام بنانا ہونا چاہئے جو بنیادی حقوق اور اقدار کی حفاظت کرتے ہوئے جدت کو فروغ دے۔ اس کے لئے مصنوعی ذہانت کی ہمیشہ بدلتی ہوئی دنیا کی طرف سے پیش کردہ چیلنجوں اور مواقع کے لئے ایک متحرک اور ذمہ دارانہ نقطہ نظر کی ضرورت ہے۔