آليات ‘تدريب نماذج اللغة الكبيرة (LLM Grooming)’
تعمل شبكة Pravda من خلال شبكة واسعة تضم ما يقرب من 150 موقعًا إخباريًا مزيفًا. هذه المواقع، مع ذلك، ليست مصممة للاستهلاك البشري. مع الحد الأدنى من الزيارات – حيث يتلقى معظم الصفحات أقل من 1000 زائر شهريًا – فإن هدفها الأساسي هو تغذية المحتوى لأنظمة الذكاء الاصطناعي. تمثل هذه الاستراتيجية نهجًا جديدًا للتضليل، متجاوزة الأساليب التقليدية التي تستهدف القراء البشريين بشكل مباشر.
تُعرف هذه الطريقة باسم ‘تدريب نماذج اللغة الكبيرة’ (LLM grooming)، وهو مصطلح يصف التلاعب المتعمد ببيانات تدريب الذكاء الاصطناعي. تحقق الشبكة ذلك من خلال النشر الجماعي للمحتوى الذي تم تحسينه بشكل كبير لمحركات البحث (SEO). يضمن ذلك سهولة استيعاب الدعاية وإعادة توزيعها بواسطة نماذج الذكاء الاصطناعي، مما يؤثر على مخرجاتها ويحتمل أن يشكل التصور العام.
أوضح John Mark Dougan، وهو أمريكي مقيم في موسكو وحددته NewsGuard على أنه يدعم حملات التضليل الروسية، المبدأ الأساسي في مؤتمر محلي: ‘كلما كانت هذه المعلومات أكثر تنوعًا، زاد تأثيرها على التدريب والذكاء الاصطناعي في المستقبل.’ يسلط هذا البيان الضوء على الطبيعة الخبيثة للعملية، التي تهدف إلى إفساد البيانات التأسيسية التي تُبنى عليها أنظمة الذكاء الاصطناعي بمهارة.
حجم ونطاق العملية
حجم أنشطة شبكة Pravda مذهل. في عام 2024 وحده، نشرت هذه المواقع ما يقرب من 3.6 مليون مقال في 49 دولة. يتم اختيار أسماء النطاقات بشكل استراتيجي لتقليد مصادر الأخبار المشروعة، مع أمثلة تشمل NATO.News-Pravda.com و Trump.News-Pravda.com و Macron.News-Pravda.com. يضيف هذا التقليد طبقة من الخداع، مما يجعل من الصعب على المراقبين العاديين التمييز بين المحتوى الأصيل والمزيف.
يمتد المحتوى نفسه عبر مجموعة واسعة من الموضوعات، ولكنه يروج باستمرار للروايات الموالية لروسيا ويقوض وجهات النظر الغربية. كانت الشبكة نشطة منذ أبريل 2022 على الأقل، وركز تحليل NewsGuard على 15 قصة كاذبة يمكن التحقق منها وزعتها شبكة Pravda بين ذلك الوقت وفبراير 2025.
ضعف روبوتات الدردشة المدعمة بالذكاء الاصطناعي
تضمن تحقيق NewsGuard اختبار العديد من روبوتات الدردشة البارزة المدعمة بالذكاء الاصطناعي لتقييم مدى تعرضها لمعلومات شبكة Pravda المضللة. شملت الأنظمة المختبرة:
- ChatGPT-4o من OpenAI
- Smart Assistant من You.com
- Grok من xAI
- Pi من Inflection
- le Chat من Mistral
- Copilot من Microsoft
- Meta AI
- Claude من Anthropic
- Gemini من Google
- Perplexity
كانت النتائج مقلقة. قبلت روبوتات الدردشة المدعمة بالذكاء الاصطناعي الروايات الكاذبة من شبكة Pravda في 33.5٪ من الحالات. بينما حددت الأنظمة بشكل صحيح المحتوى الروسي على أنه معلومات مضللة في 48.2٪ من الحالات، فقد استشهدت في بعض الأحيان بالمصادر المضللة، مما قد يمنحها مصداقية غير مستحقة. كانت الـ 18.2٪ المتبقية من الردود غير حاسمة، مما يسلط الضوء بشكل أكبر على التحديات في تمييز الحقيقة من الزيف في عصر المحتوى الذي تم إنشاؤه بواسطة الذكاء الاصطناعي.
تحدي مكافحة التضليل المدفوع بالذكاء الاصطناعي
تمثل مكافحة هذا النوع من التلاعب تحديًا كبيرًا. أثبتت الأساليب التقليدية لحظر مواقع المعلومات المضللة المعروفة عدم فعاليتها. عندما تحظر السلطات نطاقات Pravda، تظهر نطاقات جديدة بسرعة، مما يدل على خفة حركة الشبكة ومرونتها.
علاوة على ذلك، تتدفق المعلومات المضللة عبر قنوات متعددة في وقت واحد، وغالبًا ما تقوم مواقع الشبكة المختلفة بإعادة صياغة محتوى بعضها البعض. يؤدي هذا إلى إنشاء شبكة معقدة من المصادر المترابطة، مما يجعل من الصعب عزل الدعاية وتحييدها من جذورها. يوفر حظر مواقع الويب ببساطة حماية محدودة ضد الحملة الأوسع والمنسقة.
السياق الأوسع: التلاعب بالذكاء الاصطناعي الذي ترعاه الدولة
أنشطة شبكة Pravda ليست حوادث معزولة. إنها تتماشى مع نمط أوسع من الجهود التي ترعاها الدولة للاستفادة من الذكاء الاصطناعي لأغراض التضليل. كشفت دراسة حديثة أجرتها OpenAI أن جهات فاعلة مدعومة من الدولة من روسيا والصين وإيران وإسرائيل حاولت بالفعل استخدام أنظمة الذكاء الاصطناعي لحملات الدعاية. غالبًا ما تجمع هذه العمليات بين المحتوى الذي تم إنشاؤه بواسطة الذكاء الاصطناعي والمواد التقليدية التي تم إنشاؤها يدويًا، مما يطمس الخطوط الفاصلة بين المعلومات الأصلية والمعلومات التي تم التلاعب بها.
لا يقتصر استخدام الذكاء الاصطناعي في التلاعب السياسي على الجهات الفاعلة الحكومية. فقد لوحظ أيضًا أن الجماعات السياسية، مثل حزب البديل من أجل ألمانيا اليميني المتطرف في ألمانيا، تستخدم نماذج صور الذكاء الاصطناعي لأغراض الدعاية. حتى شخصيات مثل دونالد ترامب تفاعلت مع المحتوى الذي تم إنشاؤه بواسطة الذكاء الاصطناعي، كمستهلك، ومن المفارقات، من خلال وصف المعلومات الحقيقية بأنها مزيفة تم إنشاؤها بواسطة الذكاء الاصطناعي. هذا التكتيك، الذي تم تحديده كشكل من أشكال الدعاية المضادة، يزرع عدم الثقة في جميع المعلومات عبر الإنترنت، مما قد يدفع الأفراد إلى الاعتماد فقط على الشخصيات الموثوقة، بغض النظر عن الدقة الواقعية.
حتى تصميم نماذج الذكاء الاصطناعي نفسها يمكن أن يتأثر بأجندات الدولة. فقد وجد، على سبيل المثال، أن نماذج الذكاء الاصطناعي الصينية تأتي محملة مسبقًا بالرقابة والدعاية، مما يعكس الأولويات السياسية للحكومة الصينية.
التعمق: أمثلة محددة للروايات الكاذبة
في حين أن تقرير NewsGuard لا يفصل كل رواية كاذبة نشرتها شبكة Pravda، فإن منهجية استخدام قصص كاذبة يمكن التحقق منها تشير إلى نمط من نشر معلومات مضللة مصممة من أجل:
- تقويض المؤسسات الغربية: قد تصور القصص بشكل خاطئ حلف شمال الأطلسي (NATO) على أنه عدواني أو غير مستقر، أو تلفق فضائح تتعلق بالقادة الغربيين.
- تعزيز المشاعر المؤيدة لروسيا: يمكن للروايات أن تبالغ في نجاحات روسيا العسكرية، أو تقلل من شأن انتهاكاتها لحقوق الإنسان، أو تبرر أفعالها على المسرح العالمي.
- بث الفرقة والانقسام: قد يهدف المحتوى إلى تفاقم التوترات الاجتماعية والسياسية القائمة داخل الدول الغربية، وتضخيم القضايا المثيرة للانقسام وتعزيز الاستقطاب.
- تشويه الواقع حول أحداث معينة: يمكن نشر معلومات كاذبة حول أحداث مثل الانتخابات أو النزاعات أو الحوادث الدولية، وتحريف السرد لصالح تفسير مؤيد لروسيا.
الخيط المشترك هو التلاعب بالمعلومات لخدمة أجندة جيوسياسية محددة. يؤدي استخدام الذكاء الاصطناعي إلى تضخيم مدى وصول هذه الروايات وتأثيرها المحتمل، مما يجعل اكتشافها ومواجهتها أكثر صعوبة.
الآثار طويلة المدى
إن آثار هذا التضليل المدفوع بالذكاء الاصطناعي بعيدة المدى. إن تآكل الثقة في مصادر المعلومات، وإمكانية التلاعب بالرأي العام، وزعزعة استقرار العمليات الديمقراطية، كلها أمور تثير قلقًا بالغًا. مع تزايد اندماج أنظمة الذكاء الاصطناعي في حياتنا اليومية، تصبح القدرة على التمييز بين الحقيقة والزيف أكثر أهمية من أي وقت مضى.
تمثل تقنية ‘تدريب نماذج اللغة الكبيرة’ تصعيدًا كبيرًا في مشهد حرب المعلومات. إنه يسلط الضوء على ضعف أنظمة الذكاء الاصطناعي للتلاعب والحاجة إلى دفاعات قوية ضد هذا التهديد الناشئ. لا يكمن التحدي في تحديد مصادر المعلومات المضللة وحظرها فحسب، بل أيضًا في تطوير استراتيجيات لتلقيح نماذج الذكاء الاصطناعي ضد هذه الأشكال الخفية والمنتشرة من التأثير. يتطلب هذا نهجًا متعدد الأوجه، يشمل:
- محو الأمية المعزز بالذكاء الاصطناعي: تثقيف الجمهور حول إمكانية التضليل الذي يتم إنشاؤه بواسطة الذكاء الاصطناعي وتعزيز مهارات التفكير النقدي.
- أدوات محسنة للكشف عن الذكاء الاصطناعي: تطوير طرق أكثر تطوراً لتحديد المحتوى الذي تم إنشاؤه بواسطة الذكاء الاصطناعي والمعلومات المضللة ووضع علامة عليها.
- بيانات تدريب معززة للذكاء الاصطناعي: تنفيذ تدابير لضمان سلامة وتنوع بيانات تدريب الذكاء الاصطناعي، مما يجعلها أكثر مقاومة للتلاعب.
- التعاون الدولي: تعزيز التعاون بين الحكومات وشركات التكنولوجيا والباحثين لمواجهة هذا التحدي العالمي.
- زيادة الشفافية: يجب أن يكون مطورو الذكاء الاصطناعي شفافين بشأن بيانات التدريب المستخدمة والتحيزات المحتملة التي قد توجد داخل نماذجهم.
- مساءلة الخوارزميات: مساءلة مطوري الذكاء الاصطناعي عن مخرجات أنظمتهم، خاصةً عندما تُستخدم هذه المخرجات لنشر معلومات مضللة.
إن المعركة ضد التضليل المدفوع بالذكاء الاصطناعي معركة معقدة ومتطورة. إنها تتطلب جهدًا متضافرًا من الأفراد والمنظمات والحكومات لحماية سلامة المعلومات وحماية أسس اتخاذ القرار المستنير. تعد أنشطة شبكة Pravda بمثابة تذكير صارخ بالمخاطر التي تنطوي عليها وإلحاح معالجة هذا التهديد المتزايد. قد يعتمد مستقبل الخطاب العام المستنير، وربما استقرار المجتمعات الديمقراطية، على قدرتنا على مواجهة هذا الشكل الجديد من التلاعب بنجاح. التحدي ليس تكنولوجيًا فحسب؛ بل هو أيضًا مجتمعي، ويتطلب التزامًا متجددًا بالحقيقة والدقة والتفكير النقدي في العصر الرقمي.