چین کی مصنوعی ذہانت (AI) کے شعبے میں تیزی سے ابھرنے والی کمپنی DeepSeek کا تازہ ترین AI ماڈل، DeepSeek R1، کوڈنگ، ریاضی، اور عمومی معلومات کے معیار پر جانچ کے دوران نمایاں طور پر کامیاب ثابت ہوا ہے۔ یہ ماڈل تقریباً اوپن اے آئی (OpenAI) کے فلیگ شپ ماڈل o3 سے بھی سبقت لے گیا ہے۔ تاہم، اپ گریڈ شدہ R1، جسے “R1-0528” بھی کہا جاتا ہے، متنازع سوالات کے جوابات دینے میں زیادہ محتاط نظر آتا ہے، خاص طور پر ان موضوعات پر جنہیں چینی حکومت حساس سمجھتی ہے۔
SpeechMap کے گمنام ڈیولپر کے کیے گئے ٹیسٹوں کے مطابق، R1-0528 متنازع آزادی اظہار کے موضوعات پر DeepSeek کے پچھلے ورژن کے مقابلے میں بہت کم روادار ہے، اور یہ “اب تک کا سب سے سخت DeepSeek ماڈل ہے جو چینی حکومت کی تنقید کو سنسر کرتا ہے۔” SpeechMap ایک ایسا پلیٹ فارم ہے جو مختلف ماڈلز کے حساس اور متنازع موضوعات سے نمٹنے کے انداز کا موازنہ کرتا ہے۔
جیسا کہ Wired نے جنوری کے ایک مضمون میں وضاحت کی ہے، چینی ماڈلز کو معلومات پر سخت کنٹرول کی تعمیل کرنی ہوتی ہے۔ 2023 کا ایک قانون ماڈلز کو “قومی اتحاد اور سماجی ہم آہنگی کو نقصان پہنچانے” والے مواد تیار کرنے سے منع کرتا ہے، جس کی تشریح حکومت کے تاریخی اور سیاسی بیانیے کے مخالف مواد کے طور پر کی جا سکتی ہے۔ ان ضوابط کی تعمیل کرنے کے لیے، چینی کمپنیاں عام طور پر اشارہ کی سطح کے فلٹرز یا فائن ٹیوننگ کا استعمال کرکے اپنے ماڈلز کو سنسر کرتی ہیں۔ ایک تحقیق میں بتایا گیا ہے کہ DeepSeek کے ابتدائی R1 نے ان سوالات کے 85% جواب دینے سے انکار کر دیا جنہیں چینی حکومت سیاسی طور پر متنازع سمجھتی ہے۔
xlr8harder کے مطابق، R1-0528 چین کے سنکیانگ کے علاقے میں حراستی کیمپوں جیسے موضوعات کے بارے میں جوابات کو سنسر کرتا ہے، جہاں دس لاکھ سے زیادہ ایغور مسلمانوں کو من مانی طور پر حراست میں رکھا گیا ہے۔ اگرچہ یہ بعض اوقات چینی حکومتی پالیسیوں کے بعض پہلوؤں پر تنقید کرتا ہے—xlr8harder کے ٹیسٹ میں، اس نے سنکیانگ کے کیمپوں کو انسانی حقوق کی خلاف ورزیوں کی مثال کے طور پر پیش کیا—لیکن جب براہ راست سوالات پوچھے جاتے ہیں، تو ماڈل اکثر چینی حکومت کا سرکاری موقف پیش کرتا ہے۔
TechCrunch نے بھی اپنے مختصر ٹیسٹوں میں اس بات کا مشاہدہ کیا۔
چین میں عوامی طور پر دستیاب AI ماڈلز، بشمول ویڈیو جنریشن ماڈلز، ماضی میں چینی حکومت کے حساس موضوعات، جیسے تیانانمین اسکوائر قتل عام کو سنسر کرنے پر تنقید کا نشانہ بن چکے ہیں۔ دسمبر میں، AI ڈیولپمنٹ پلیٹ فارم Hugging Face کے سی ای او کلیمینٹ ڈیلانگ نے خبردار کیا تھا کہ مغربی کمپنیوں کے ذریعے بنائے گئے، اچھی کارکردگی کا مظاہرہ کرنے والے، عوامی طور پر لائسنس یافتہ چینی AI کے غیر ارادی نتائج ہو سکتے ہیں۔
AI ماڈلز پر سنسر شپ کا اثر ایک تشویشناک مسئلہ بن گیا ہے، خاص طور پر جغرافیائی سیاسی کشیدگی کے تناظر میں۔ DeepSeek R1-0528 کا معاملہ AI ٹیکنالوجی میں ترقی کی تلاش اور فکری آزادی اور معلومات تک رسائی کو برقرار رکھنے کے درمیان پیچیدہ توازن کو اجاگر کرتا ہے۔ یہ گہرائی سے جانچ پڑتال کے قابل ہے کہ DeepSeek ان چیلنجوں سے کیسے نمٹتا ہے، اور اس کا AI صنعت کی مستقبل کی ترقی پر کیا اثر پڑے گا۔
سنسرشپ کی تعریف اور اقسام
سنسرشپ، وسیع پیمانے پر معلومات پر پابندی یا دباؤ کے معنی میں استعمال ہوتا ہے، کئی شکلیں اختیار کر سکتا ہے۔ مصنوعی ذہانت کے میدان میں، سنسرشپ اکثر مندرجہ ذیل طریقوں سے ظاہر ہوتی ہے:
- مواد کی فلٹرنگ: ماڈل کو بعض قسم کے مواد تیار کرنے یا ظاہر کرنے سے روکنا، جیسے کہ سیاسی طور پر حساس موضوعات، تشدد، امتیازی سلوک وغیرہ سے متعلق مواد۔
- معلومات کی مسخ: ماڈل کی جانب سے پیش کی جانے والی معلومات میں ترمیم کرنا یا اسے بگاڑنا، تاکہ وہ کسی خاص نظریے یا سیاسی موقف کے مطابق ہو۔
- جواب سے گریز: ماڈل کا بعض سوالات کے جواب دینے سے انکار کرنا، یا مبہم، اور غیر واضح جوابات دینا۔
- اشارہ انجینئرنگ: احتیاط سے ڈیزائن کیے گئے اشاروں کے ذریعے، ماڈل کو خاص ارادے کے مطابق جواب دینے کی ہدایت کرنا۔
DeepSeek R1-0528 کا معاملہ ظاہر کرتا ہے کہ ماڈل نے سنسرشپ کے مذکورہ بالا کئی طریقوں کو اپنایا ہے، خاص طور پر جب چینی حکومت کے حساس موضوعات کی بات آتی ہے۔
سنسر شپ کی وجوہات اور محرکات
مصنوعی ذہانت کے ماڈلز کو سنسر کرنے کی وجوہات اور محرکات عام طور پر متعدد ہوتے ہیں:
- قوانین اور ضوابط: کچھ ممالک یا خطوں نے قوانین اور ضوابط نافذ کیے ہیں جن کے تحت مصنوعی ذہانت کے ماڈلز کو معلومات پر کنٹرول کے مخصوص معیارات پر عمل کرنا ضروری ہے۔ مثال کے طور پر، چین سے متعلقہ قوانین ماڈلز کو “قومی اتحاد اور سماجی ہم آہنگی को नुकसान पहुंचانے” वाला مواد تیار کرنے سے منع करते ہیں۔
- سیاسی دباؤ: حکومت یا سیاسی گروہ مصنوعی ذہانت کمپنیوں پر ماڈل के مواد को সেন্সر کرنے کے لیے دباؤ ڈال सकते हैं, ताकि वे अपने राजनीतिक हितों की रक्षा कर सकें।
- سماجی ذمہ داری: مصنوعی ذہانت کمپنیاں سماجی ذمہ داری کو مدنظر रखते हुए, नुकसानदायक معلومات کے پھیلاؤ کو روکने या सामाजिक अशांति को रोकने के लिए स्वेच्छा से माडल के मसविदा को सेंसर कर سکتی ہیں۔
- تجارتی مفادات: حکومت یا जनता को नाखुश کرنے سے بچنے के लिए, आर्टिफिशियल इंटेलिजेंस कंपनियां मॉडलों की सामग्री को सेंसर कर सकती हैं ताकि उनके व्यवसायिक हितों की रक्षा हो सके।
DeepSeek، एक चाईनीज आर्टिफिशियल इंटेलिजेंस कंपनी होने के नाते, कानूनी कानूनों, राजनीतिक दबाव और सामाजिक जिम्मेदारियों जैसे कई पहलुओं से प्रभावित हो सकती है, जिससे R1-0528 को सेंसर करना पड़ सकता है।
سنسرشپ کے ممکنہ اثرات
مصنوعی ذہانت کے ماڈل کے سنسر شپ کے ممکنہ اثرات مندرجہ ذیل ہو सकते हैं:
- معلومات तक رسائی کو ограничи کرنا: Censorship users کو مکمل, بااثر معلومات प्राप्त کرنے سے روكتی ہے, जिससे ان کے فیصلے اور کارروائیਾਂ پر اثر پڑتا ہے۔
- नवोन्मेषको दबाना: Censorship مصنوعی ذہانت تکنالوجی کی ترقی کو روکتا ہے, کیونکہ исследующие آزادانہ طور پر વિવિધ خیالات کی جانچ نہیں کر سکتے ہیں۔
- معاشرتی تقسیم کو بڑھانا: Censorship معاشਰਤੀ تقسیم کو بڑھاتا ہے, کیونکہ अलग-अलग ਸਮੂਹ ان معلومات تک ብቻ पहुँच ਸਕते ਹਨ జో وہ اپنے مواقف کے соответствии ہیں۔
- بھروسے کو نقصان پہنچانا: اگر صارفین کو پتہ چلا ہے کہ कृत्रिम बुद्धिमत्ता मॉडल में कोई censure की गतिविधि मौजूद है, तो वे उस मॉडल पर से भरोसा खो सकते हैं।
DeepSeek R1-0528 کا मामला ظاہر کرتا ہے કે censoring चीनी सरकार के प्रति संवेदनशील विषयों के बारे में जानकारी प्राप्त करने में उपभोक्ताओं को रोक सकता है।
مصنوعی ذہانتcensorship سے مقابلہ کرنے کے لیے حکمت عملی
مصنوعی ذہانتcensorship سے مقابلہ کرنے کے لیے, متعدد حکمت عملی اپناਈ ਜਾ ਸਕਦੀਆਂ ਹਨ:
- تکنیکی ذرائع: censure کے فلٹرز کا پتہ لگانے اور ان سے بچنے کے لیے ٹیکنالوجی تیار کرنا۔
- قانونی کارروائی: اظہار رائے کی சுதந்திரता کی خلاف ورزی کے लिए censorshipکے خلاف சட்டப்படி చర్య लेना।
- عوامی وکالت: عوامی طور پر مصنوعی ذہانت censorship کے بارے میں بیداری پیدا کرنا ಮತ್ತು ਸਰਕਾਰਾਂ ਅਤੇ ਕੰਪਨੀਆਂ ਨੂੰ ಕ್ರಮ ਲੈਣ ਲਈ ਅਪੀਲ کرنا۔
- विकेन्द्रीकृत مصنوعی ذہانت: विकेन्द्रीकृत مصنوعی ذہانت پلیٹ فارम تیار کرنا تا کہ censure کے امکان کو کم کیا जा सके।
- ओपन سورس تعاون: زیادہ کھلے اور شفاف مصنوعی ذہانت ಮಾڈل کے لیے اوپن ಸೋರ್ تعاون کو حوصلہ افزائی کرنا।
ڈیپ سیek का جواب
ڈیپ سیek نے ابھی تک عوامی طور پر R1-0528 censorship کے الزامات کا جواب نہیں دیا ہے۔ اگر ڈیپ سییک ამის შესახებ რაიმე პასუხს გააკეთებს, ის ყურადღების ღირსია რამდენიმე ასპექტში:
- کیا ڈیپ سییک نے R1-