نموذج DeepSeek R1 AI يخضع لمراجعة أكثر صرامة بعد التحديث
حقق أحدث نموذج للذكاء الاصطناعي من شركة DeepSeek الصينية الناشئة في مجال الذكاء الاصطناعي نتائج ملحوظة في معايير الترميز والرياضيات والمعرفة العامة، متجاوزًا تقريبًا نموذج o3 الرائد في OpenAI. لكن R1 المطورة، والمعروفة أيضًا باسم “R1-0528”، قد تكون أقل استعدادًا للإجابة على الأسئلة المثيرة للجدل، لا سيما حول الموضوعات التي تعتبرها الحكومة الصينية مثيرة للجدل.
وفقًا للاختبارات التي أجراها مطور مجهول الهوية يقف وراء SpeechMap، فإن R1-0528 لديه قدرة تحمل أقل بكثير للموضوعات المثيرة للجدل المتعلقة بحرية التعبير مقارنة بالإصدارات السابقة من DeepSeek، وهو “حتى الآن نموذج DeepSeek الأكثر صرامة في الرقابة على انتقاد الحكومة الصينية”. SpeechMap عبارة عن منصة تقارن كيف تتعامل النماذج المختلفة مع الموضوعات الحساسة والمثيرة للجدل.
كما أوضحت Wired في مقال نُشر في يناير، تحتاج النماذج الصينية إلى الامتثال لضوابط معلومات صارمة. يحظر قانون صدر عام 2023 على النماذج إنشاء محتوى “يضر بالوحدة الوطنية والوئام الاجتماعي”، وهو ما يمكن تفسيره على أنه يتعارض مع الروايات الحكومية التاريخية والسياسية. للامتثال للوائح، غالبًا ما تقوم الشركات الصينية الناشئة بفحص نماذجها باستخدام عوامل تصفية على مستوى المطالبة أو الضبط الدقيق. وجدت إحدى الدراسات أن R1 الأولي من DeepSeek رفض الإجابة على 85% من الأسئلة حول الموضوعات التي تعتبرها الحكومة الصينية مثيرة للجدل سياسيًا.
وفقًا لـ xlr8harder، تقوم R1-0528 بمراجعة الإجابات حول موضوعات مثل معسكرات الاعتقال في منطقة شينجيانغ الصينية، حيث تم احتجاز أكثر من مليون مسلم من الإيغور بشكل تعسفي. على الرغم من أنها تنتقد أحيانًا جوانب معينة من السياسة الحكومية الصينية - في اختبار xlr8harder، قدمت معسكرات شينجيانغ كمثال على انتهاكات حقوق الإنسان - إلا أن النموذج غالبًا ما يعطي الموقف الرسمي للحكومة الصينية عند طرح الأسئلة مباشرة.
لاحظ TechCrunch ذلك أيضًا في اختباراتنا الموجزة.
تعرضت نماذج الذكاء الاصطناعي المتاحة للجمهور في الصين، بما في ذلك نماذج إنشاء الفيديو، لانتقادات في الماضي بسبب مراجعة الموضوعات الحساسة للحكومة الصينية، مثل مذبحة ميدان تيانانمين. في ديسمبر، حذر كليمنت ديلانج، الرئيس التنفيذي لمنصة تطوير الذكاء الاصطناعي Hugging Face، من العواقب غير المقصودة للشركات الغربية التي تبني على الذكاء الاصطناعي الصيني المرخص علنًا والذي يتمتع بأداء جيد.
لطالما كان تأثير الرقابة على نماذج الذكاء الاصطناعي مصدر قلق كبير، لا سيما في سياق التوترات الجيوسياسية. تسلط حالة DeepSeek R1-0528 الضوء على التوازن المعقد بين السعي لتحقيق التقدم التكنولوجي في مجال الذكاء الاصطناعي والحفاظ على حرية الفكر والوصول إلى المعلومات. من الجدير بالذكر كيف تتصدى DeepSeek لهذه التحديات، وماذا يعني ذلك للتطور المستقبلي لصناعة الذكاء الاصطناعي.
تعريف الرقابة وأشكالها
الرقابة، بمعنى واسع، تشير إلى تقييد أو قمع المعلومات، ويمكن أن تتخذ أشكالًا عديدة. في مجال الذكاء الاصطناعي، تتجلى الرقابة عادةً على النحو التالي:
- تصفية المحتوى: منع النموذج من إنشاء أو عرض أنواع معينة من المحتوى، مثل المحتوى الذي يتضمن موضوعات حساسة سياسيًا أو عنفًا أو تمييزًا، وما إلى ذلك.
- تشويه المعلومات: المعلومات التي يقدمها النموذج يتم تعديلها أو تشويهها لتتوافق مع أيديولوجية أو موقف سياسي معين.
- تجنب الإجابة: يرفض النموذج الإجابة على بعض الأسئلة، أو يعطي إجابات غامضة أو مبهمة.
- هندسة المطالبة: من خلال المطالبات المصممة بعناية، يتم توجيه النموذج لتقديم إجابات تتوافق مع نية محددة.
تشير حالة DeepSeek R1-0528 إلى أن النموذج ربما اعتمد العديد من وسائل الرقابة المذكورة أعلاه، خاصة عندما يتعلق الأمر بالموضوعات الحساسة للحكومة الصينية.
أسباب الرقابة ودوافعها
عادة ما تكون أسباب ودوافع الرقابة على نماذج الذكاء الاصطناعي متعددة الأوجه:
- القوانين واللوائح: وضعت بعض البلدان أو المناطق قوانين ولوائح تتطلب من نماذج الذكاء الاصطناعي الامتثال لمعايير محددة للتحكم في المعلومات. على سبيل المثال، تحظر القوانين ذات الصلة في الصين على النماذج إنشاء محتوى “يضر بالوحدة الوطنية والوئام الاجتماعي”.
- الضغوط السياسية: قد تمارس الحكومات أو الجماعات السياسية ضغوطًا على شركات الذكاء الاصطناعي لمراجعة محتوى النموذج للحفاظ على مصالحها السياسية.
- المسؤولية الاجتماعية: قد تقوم شركات الذكاء الاصطناعي بمراجعة محتوى النموذج بشكل استباقي لأسباب تتعلق بالمسؤولية الاجتماعية لتجنب نشر معلومات ضارة أو التسبب في اضطرابات اجتماعية.
- المصالح التجارية: لتجنب إثارة غضب الحكومات أو الجمهور، قد تقوم شركات الذكاء الاصطناعي بمراجعة محتوى النموذج للحفاظ على مصالحها التجارية.
قد تواجه DeepSeek، بصفتها شركة صينية للذكاء الاصطناعي، اعتبارات من قوانين ولوائح وضغوط سياسية ومسؤولية اجتماعية متعددة، مما يضطرها إلى مراجعة R1-0528.
الآثار المحتملة للرقابة
قد يكون لنظام الرقابة على نماذج الذكاء الاصطناعي الآثار المحتملة التالية:
- تقييد الوصول إلى المعلومات: سيؤدي نظام الرقابة إلى تقييد وصول المستخدمين إلى معلومات شاملة وموضوعية، مما يؤثر على حكمهم وقراراتهم.
- خنق الابتكار: سيؤدي نظام الرقابة إلى تقييد تطوير تكنولوجيا الذكاء الاصطناعي، حيث قد لا يتمكن الباحثون من استكشاف واختبار أفكار مختلفة بحرية.
- تفاقم الانقسامات الاجتماعية: قد يؤدي نظام الرقابة إلى تفاقم الانقسامات الاجتماعية، حيث قد تتمكن مجموعات مختلفة من الوصول فقط إلى المعلومات التي تتفق مع مواقفها الخاصة.
- الإضرار بالثقة: إذا وجد المستخدمون أن نظام الذكاء الاصطناعي يمارس الرقابة، فقد يفقدون الثقة في هذا النظام.
تشير حالة DeepSeek R1-0528 إلى أن نظام الرقابة قد يفرض قيودًا على وصول المستخدمين إلى المعلومات حول الموضوعات الحساسة للحكومة الصينية.
استراتيجيات للتصدي للرقابة على الذكاء الاصطناعي
للتصدي للرقابة على الذكاء الاصطناعي، يمكن اتباع الاستراتيجيات التالية:
- الوسائل التقنية: تطوير تقنيات قادرة على اكتشاف وتجاوز عوامل تصفية الرقابة.
- الإجراءات القانونية: رفع دعاوى قضائية ضد الرقابة التي تنتهك حرية التعبير.
- الدعوة العامة: زيادة الوعي العام بالرقابة على الذكاء الاصطناعي، ودعوة الحكومات والشركات إلى اتخاذ الإجراءات اللازمة.
- الذكاء الاصطناعي اللامركزي: تطوير منصات ذكاء اصطناعي لامركزية لتقليل احتمالية الرقابة.
- التعاون مفتوح المصدر: تشجيع التعاون مفتوح المصدر لتطوير نماذج ذكاء اصطناعي أكثر انفتاحًا وشفافية.
استجابة DeepSeek
لم ترد DeepSeek علنًا بعد على الادعاءات المتعلقة بنظام الرقابة R1-0528. إذا قدمت DeepSeek ردًا على ذلك، فمن الجدير بالاهتمام بالجوانب التالية:
- هل تعترف DeepSeek بأنها مارست الرقابة على R1-0528؟
- إذا تم الاعتراف بذلك، فما هي أسباب ودوافع DeepSeek للرقابة؟
- هل تخطط DeepSeek لتغيير سياسة الرقابة الخاصة بها؟
- كيف توازن DeepSeek بين التقدم التكنولوجي وحرية المعلومات؟
سيكون لرد DeepSeek تأثير كبير على صناعة الذكاء الاصطناعي.
مناقشة الرقابة والأخلاق
يثير نظام الرقابة على الذكاء الاصطناعي سلسلة من القضايا الأخلاقية، بما في ذلك:
- حرية التعبير: هل يجب أن تتمتع نماذج الذكاء الاصطناعي بحرية التعبير؟
- الوصول إلى المعلومات: هل يحق للمستخدمين الحصول على معلومات شاملة وموضوعية؟
- الشفافية: هل تلتزم شركات الذكاء الاصطناعي بالكشف عن سياسات الرقابة الخاصة بها؟
- المسؤولية: من المسؤول عن الرقابة على الذكاء الاصطناعي؟
- الثقة: كيف نبني الثقة في عصر الذكاء الاصطناعي؟
تحتاج هذه القضايا الأخلاقية إلى مزيد من الدراسة المتعمقة.
خصوصية نظام الرقابة الصيني
يتمتع نظام الرقابة الصيني بخصوصية، والتي تتجلى بشكل أساسي في الجوانب التالية:
- نطاق واسع: يغطي النطاق الصيني للرقابة مجالات متعددة مثل السياسة والتاريخ والثقافة والدين.
- صرامة شديدة: صرامة الرقابة الصينية صارمة للغاية لدرجة أنها قد تشمل رقابة على تصريحات الأفراد.
- تقنية متقدمة: تمتلك الصين فريقًا ضخمًا من المراقبين، وتستخدم وسائل تكنولوجية متقدمة للرقابة.
- الدعم القانوني: وضعت الصين سلسلة من القوانين واللوائح لدعم نظام الرقابة.
تجعل هذه الخصائص الخاصة تطوير نماذج الذكاء الاصطناعي في الصين يواجه تحديات فريدة.
مقارنة بين أنظمة الرقابة على الذكاء الاصطناعي العالمية
بالإضافة إلى الصين، توجد في بلدان أخرى أشكال مختلفة من أنظمة الرقابة على الذكاء الاصطناعي، والتي تتجلى أساسًا في الجوانب التالية:
- أوروبا: أصدر الاتحاد الأوروبي “قانون الذكاء الاصطناعي”، الذي يهدف إلى تنظيم تطبيقات الذكاء الاصطناعي ومنع استخدامه للتمييز أو انتهاك حقوق الإنسان.
- الولايات المتحدة: تنظم الولايات المتحدة بشكل أساسي تطوير الذكاء الاصطناعي من خلال آليات السوق والتنظيم الذاتي للصناعة، ولكن هناك أيضًا بعض الخلافات حول رقابة المحتوى.
- بلدان أخرى: وضعت بلدان أخرى أيضًا سياسات تنظيمية مختلفة للذكاء الاصطناعي وفقًا لظروفها الوطنية، وقد تتضمن بعض هذه السياسات رقابة على المحتوى.
من خلال مقارنة أنظمة الرقابة على الذكاء الاصطناعي المختلفة في بلدان مختلفة، يمكن فهم تعقيد وتنوع الرقابة بشكل أفضل.
الاتجاهات المستقبلية للرقابة على الذكاء الاصطناعي
قد تتضمن الاتجاهات المستقبلية للرقابة على الذكاء الاصطناعي الجوانب التالية:
- التقدم التكنولوجي: ستستمر تقنيات الرقابة ومكافحة الرقابة في التطور، لتشكل لعبة القط والفأر.
- تعزيز التنظيم: قد تقوم الحكومات في مختلف البلدان بتعزيز تنظيم الذكاء الاصطناعي، بما في ذلك رقابة المحتوى.
- التعاون الدولي: قد تعزز مختلف البلدان التعاون الدولي في إدارة الذكاء الاصطناعي، بما في ذلك رقابة المحتوى.
- الاهتمام الاجتماعي: سيهتم المجتمع بشكل متزايد بتأثير الرقابة على الذكاء الاصطناعي، ويدعو إلى اتخاذ مواقف أكثر مسؤولية.
تأثير الرقابة على DeepSeek
بصفتها شركة صينية للذكاء الاصطناعي، يتأثر تطور DeepSeek بشكل عميق بنظام الرقابة الصيني. تحتاج DeepSeek إلى إيجاد توازن بين الامتثال للقوانين واللوائح الصينية وتلبية احتياجات المستخدمين. سيتوقف تطور DeepSeek المستقبلي على كيفية مواجهة التحديات التي يفرضها نظام الرقابة.
الذكاء الاصطناعي والتحيز
ترتبط الرقابة ارتباطًا وثيقًا بقضية التحيز في الذكاء الاصطناعي. قد يؤدي نظام الرقابة إلى تعلم النموذج لمعلومات جزئية فقط، مما يؤدي إلى التحيز. تحتاج DeepSeek إلى اتخاذ تدابير لضمان قدرة نموذجها على تعلم معلومات شاملة وموضوعية، وتجنب التحيز.
الشفافية وقابلية التفسير
للتصدي للتحديات التي يفرضها نظام الرقابة، يجب على DeepSeek زيادة شفافية نموذجها وقابليته للتفسير. يجب على DeepSeek الكشف عن سياسات الرقابة الخاصة بها، وشرح كيفية تعامل نموذجها مع الموضوعات الحساسة. سيساعد ذلك في بناء ثقة المستخدمين، وتعزيز التطور الصحي للذكاء الاصطناعي.
ملخص
تسلط حالة DeepSeek R1-0528 الضوء على تعقيد وأهمية الرقابة على الذكاء الاصطناعي. سيكون لنظام الرقابة تأثير كبير على الوصول إلى المعلومات والابتكار التكنولوجي والانقسامات الاجتماعية وثقة المستخدمين. يتطلب التصدي للرقابة وسائل تقنية وإجراءات قانونية ودعوة عامة وذكاء اصطناعي لامركزي وتعاون مفتوح المصدر واستراتيجيات أخرى. بصفتها شركة صينية للذكاء الاصطناعي، تحتاج DeepSeek إلى إيجاد توازن بين الامتثال للقوانين واللوائح الصينية وتلبية احتياجات المستخدمين. يجب على DeepSeek زيادة شفافية نموذجها وقابليته للتفسير للتصدي للتحديات التي يفرضها نظام الرقابة.