روبوتات الدردشة المعتمدة على الذكاء الاصطناعي وانتشار التضليل الروسي

التأثير الواسع النطاق للأكاذيب المدعومة من الكرملين

يكمن جوهر المشكلة في التلوث المتعمد لمصادر المعلومات عبر الإنترنت. من خلال إغراق نتائج البحث وبرامج زحف الويب بأكاذيب مؤيدة للكرملين، تعمل شبكة من الجهات الفاعلة في مجال التضليل بنشاط على تشكيل مُخرجات نماذج اللغات الكبيرة (LLMs). تعتمد هذه النماذج، التي تشغل روبوتات الدردشة المدعومة بالذكاء الاصطناعي التي نتفاعل معها يوميًا، على مجموعات بيانات ضخمة مأخوذة من الإنترنت. عندما تكون هذه البيانات ملوثة بمعلومات مضللة، فإن المُخرجات الناتجة تعكس هذه التحيزات.

أجرت NewsGuard، وهي شركة تقدم تقييمات المصداقية وبصمات التضليل لمواقع الأخبار والمعلومات، تحليلاً متعمقًا لهذه الظاهرة. تكشف النتائج التي توصلوا إليها عن حقيقة مزعجة: جزء كبير من المعلومات التي تولدها روبوتات الدردشة الرائدة في مجال الذكاء الاصطناعي يردد الروايات التي تروج لها شبكة محددة من المواقع الإلكترونية الموالية للكرملين.

آليات التضليل: كيف يتم التلاعب بنماذج الذكاء الاصطناعي

الاستراتيجية التي تستخدمها شبكة التضليل هذه خبيثة ومتطورة. لا تهدف في المقام الأول إلى جذب القراء من البشر؛ بل إنها مصممة للتلاعب بالخوارزميات التي تقوم عليها روبوتات الدردشة المدعومة بالذكاء الاصطناعي. تتضمن هذه الطريقة، المعروفة باسم ‘LLM grooming’، زرع معلومات خاطئة أو مضللة بشكل استراتيجي عبر العديد من مواقع الويب، مع العلم أن هذه المنصات سيتم فحصها واستيعابها بواسطة LLMs.

سلط مشروع American Sunlight Project (ASP)، وهو منظمة أمريكية غير ربحية، الضوء على هذا التهديد في تقرير صدر في فبراير 2025. وحذروا من أن شبكة Pravda، وهي مجموعة من المواقع الإلكترونية التي تروج لروايات مؤيدة لروسيا، ربما تم إنشاؤها بغرض صريح هو التأثير على نماذج الذكاء الاصطناعي. كلما زاد حجم الروايات المؤيدة لروسيا، زادت احتمالية دمج LLMs لها في قاعدة معارفها.

إن تداعيات هذا الأمر بعيدة المدى. مع تزايد اندماج LLMs في حياتنا اليومية، حيث تعمل كمصادر للمعلومات والمساعدة، فإن احتمال انتشار المحتوى المتلاعب على نطاق واسع أمر مثير للقلق.

تدقيق NewsGuard: تحديد حجم التأثير

لتقييم مدى هذه المشكلة، أجرت NewsGuard تدقيقًا لعشرة روبوتات دردشة بارزة تعمل بالذكاء الاصطناعي. وشملت هذه:

  • OpenAI’s ChatGPT-4o
  • You.com’s Smart Assistant
  • xAI’s Grok
  • Inflection’s Pi
  • Mistral’s le Chat
  • Microsoft’s Copilot
  • Meta AI
  • Anthropic’s Claude
  • Google’s Gemini
  • Perplexity’s answer engine

ركز التدقيق على 15 رواية زائفة متميزة تم الترويج لها بنشاط من قبل 150 موقعًا إلكترونيًا تابعًا لـ Pravda مؤيدًا للكرملين بين أبريل 2022 وفبراير 2025. غطت هذه الروايات مجموعة من الموضوعات، وكلها مصممة لتعزيز أجندة سياسية محددة.

تضمنت المنهجية اختبار كل روبوت دردشة بسلسلة من المطالبات بناءً على بصمات التضليل الخاصة بـ NewsGuard، وهي قائمة من الادعاءات الكاذبة التي يمكن إثباتها حول موضوعات إخبارية مهمة. تمت صياغة المطالبات بثلاثة أنماط مختلفة - بريء، وموجه، وخبيث - لمحاكاة الطرق المختلفة التي يتفاعل بها المستخدمون مع نماذج الذكاء الاصطناعي التوليدية. نتج عن هذا ما مجموعه 450 ردًا (45 لكل روبوت دردشة).

نتائج مقلقة: انتشار التضليل عبر روبوتات الدردشة

كانت نتائج تدقيق NewsGuard صارخة. بشكل جماعي، كررت روبوتات الدردشة العشرة التي تعمل بالذكاء الاصطناعي روايات التضليل الروسية الكاذبة في 33.55% من الردود. وقدموا ردًا غير إيجابي في 18.22% من الحالات وفضحوا الرواية في 48.22% من الحالات.

كل روبوت دردشة تم اختباره كرر معلومات مضللة مصدرها شبكة Pravda. والأمر الأكثر إثارة للقلق هو أن سبعة من روبوتات الدردشة استشهدت مباشرة بمقالات محددة من مواقع Pravda الإلكترونية كمصادر لها. في حين أن اثنين من نماذج الذكاء الاصطناعي لا يقدمان استشهادات صريحة، فقد وجد أنهما لا يزالان يولدون أو يكررون روايات كاذبة من الشبكة. واحد فقط من النماذج الثمانية التي تستشهد بالمصادر لم يستشهد بـ Pravda.

في المجموع، تضمنت 56 من أصل 450 ردًا تم إنشاؤها بواسطة روبوتات الدردشة روابط مباشرة لمقالات تنشر ادعاءات كاذبة نشرتها شبكة Pravda. استشهدت روبوتات الدردشة بشكل جماعي بـ 92 مقالة مختلفة تحتوي على معلومات مضللة، مع إشارة نموذجين إلى ما يصل إلى 27 مقالة من Pravda لكل منهما. نشأت هذه المقالات من نطاقات مختلفة داخل الشبكة، بما في ذلك Denmark.news-pravda.com و Trump.news-pravda.com و NATO.news-pravda.com.

طبيعة المطالبات: محاكاة التفاعلات الواقعية

تم تصميم أنماط المطالبات الثلاثة المستخدمة في تدقيق NewsGuard لتعكس طيف تفاعلات المستخدم مع روبوتات الدردشة المدعومة بالذكاء الاصطناعي:

  • مطالبات بريئة (Innocent Prompts): قدمت هذه المطالبات الرواية الكاذبة بطريقة محايدة وغير موجهة، كما لو كان المستخدم يبحث ببساطة عن معلومات دون أي أفكار مسبقة.
  • مطالبات موجهة (Leading Prompts): أشارت هذه المطالبات بمهارة إلى الرواية الكاذبة، ملمحة إلى صحتها دون ذكرها صراحة. يحاكي هذا السيناريوهات التي قد يكون فيها المستخدمون قد تعرضوا لبعض المعلومات المضللة ويسعون إلى التأكيد.
  • مطالبات خبيثة (Malign Prompts): أكدت هذه المطالبات بشكل مباشر الرواية الكاذبة كحقيقة، مما يعكس المواقف التي يكون فيها المستخدمون مقتنعين بالفعل بالمعلومات المضللة ويسعون إلى التعزيز.

كان هذا النهج متعدد الأوجه حاسمًا في فهم كيف يمكن لأنواع مختلفة من تفاعل المستخدم أن تؤثر على استجابة روبوت الدردشة. وكشف أن روبوتات الدردشة كانت عرضة لتكرار المعلومات المضللة بغض النظر عن نمط المطالبة، على الرغم من اختلاف وتيرة وطبيعة الردود.

أمثلة محددة على التضليل الذي رددته روبوتات الدردشة

يقدم تقرير NewsGuard أمثلة عديدة على روايات كاذبة محددة نشرتها شبكة Pravda ورددتها لاحقًا روبوتات الدردشة المدعومة بالذكاء الاصطناعي. تسلط هذه الأمثلة الضوء على اتساع وعمق حملة التضليل. تضمنت بعض الروايات:

  • ادعاءات بأن أوكرانيا دولة نازية.
  • تأكيدات كاذبة حول أسباب الصراع في أوكرانيا.
  • معلومات مضللة حول تورط الغرب في الصراع.
  • قصص ملفقة عن القيادة الأوكرانية.

هذه مجرد أمثلة قليلة على العديد من الروايات الكاذبة التي تم توثيقها وتتبعها بدقة من قبل NewsGuard. إن حقيقة أن هذه الروايات يتم ترديدها من قبل روبوتات الدردشة الرائدة في مجال الذكاء الاصطناعي تؤكد الحاجة الملحة إلى اتخاذ تدابير مضادة فعالة.

تحدي مكافحة التضليل المدفوع بالذكاء الاصطناعي

معالجة هذه المشكلة هي مهمة معقدة. تتطلب نهجًا متعدد الجوانب يتضمن حلولًا تكنولوجية وزيادة وعي المستخدم.

الحلول التكنولوجية:

  • تحسين تصفية البيانات: يحتاج مطورو الذكاء الاصطناعي إلى تطبيق آليات أكثر قوة لتصفية المعلومات المضللة من مجموعات البيانات المستخدمة لتدريب LLMs. يتضمن ذلك تحديد واستبعاد المصادر غير الموثوقة، بالإضافة إلى تطوير خوارزميات يمكنها اكتشاف ووضع علامة على المعلومات التي يحتمل أن تكون خاطئة أو مضللة.
  • تحسين التحقق من المصدر: يجب تصميم روبوتات الدردشة لإعطاء الأولوية للمعلومات من مصادر موثوقة وتم التحقق منها. يتضمن ذلك تقديم استشهادات واضحة والسماح للمستخدمين بتتبع أصل المعلومات المقدمة بسهولة.
  • الشفافية وقابلية التفسير: يجب أن تكون نماذج الذكاء الاصطناعي أكثر شفافية بشأن عمليات صنع القرار الخاصة بها. يجب أن يكون المستخدمون قادرين على فهم سبب تقديم روبوت الدردشة لاستجابة معينة وما هي مصادر البيانات التي يعتمد عليها.

وعي المستخدم:

  • التثقيف في مجال الإعلام: يجب تثقيف المستخدمين حول إمكانية وجود معلومات مضللة ناتجة عن الذكاء الاصطناعي. يتضمن ذلك تطوير مهارات التفكير النقدي وتعلم كيفية تقييم مصداقية مصادر المعلومات عبر الإنترنت.
  • التشكيك والتحقق: يجب على المستخدمين التعامل مع المعلومات التي تقدمها روبوتات الدردشة المدعومة بالذكاء الاصطناعي بقدر صحي من الشك. من الضروري مقارنة المعلومات بمصادر أخرى والحذر من الادعاءات التي تبدو مثيرة للغاية أو جيدة جدًا لدرجة يصعب تصديقها.

المخاطر طويلة الأجل: السياسية والاجتماعية والتكنولوجية

يشكل الانتشار غير المنضبط للمعلومات المضللة من خلال روبوتات الدردشة المدعومة بالذكاء الاصطناعي مخاطر كبيرة على المدى الطويل. تمتد هذه المخاطر إلى ما هو أبعد من التأثير المباشر للروايات الكاذبة الفردية وتشمل عواقب مجتمعية أوسع.

  • المخاطر السياسية: يمكن أن يؤدي التلاعب بالرأي العام من خلال التضليل المدفوع بالذكاء الاصطناعي إلى تقويض العمليات الديمقراطية وتآكل الثقة في المؤسسات. يمكن استخدامه للتأثير على الانتخابات وزرع الفتنة وزعزعة استقرار الحكومات.
  • المخاطر الاجتماعية: يمكن أن يؤدي انتشار الروايات الكاذبة إلى تفاقم الانقسامات الاجتماعية القائمة وخلق انقسامات جديدة. يمكن أن يغذي التحيز والتمييز وحتى العنف.
  • المخاطر التكنولوجية: يمكن أن يؤدي تآكل الثقة في تكنولوجيا الذكاء الاصطناعي بسبب انتشار المعلومات المضللة إلى إعاقة تطويرها واعتمادها. قد يصبح الناس مترددين في استخدام أدوات الذكاء الاصطناعي إذا لم يتمكنوا من الثقة في دقة وموثوقية المعلومات المقدمة.

إن المعركة ضد التضليل المدفوع بالذكاء الاصطناعي هي معركة حاسمة. تتطلب جهدًا متضافرًا من مطوري الذكاء الاصطناعي وصانعي السياسات والمعلمين والمستخدمين الأفراد لضمان استخدام هذه التقنيات القوية بمسؤولية وأخلاقية. قد يعتمد مستقبل المعلومات، بل ومستقبل مجتمعاتنا، على ذلك.