صعود روبوتات الدردشة الخاصة بالذكاء الاصطناعي في التحقق من الحقائق
في منصة X (تويتر سابقًا) الخاصة بإيلون ماسك (Elon Musk)، أصبح السؤال "@Grok، هل هذا صحيح؟" سؤالًا شائعًا بين المستخدمين. Grok هو مساعد يعمل بالذكاء الاصطناعي مدمج في منصة X، ويعكس اتجاه المستخدمين إلى البحث عن دحض فوري للشائعات على وسائل التواصل الاجتماعي. ومع ذلك، غالبًا ما تكون إجابات روبوتات الدردشة هذه مليئة بالمعلومات الخاطئة.
حظي Grok مؤخرًا باهتمام كبير لإدخاله نظرية المؤامرة اليمينية المتطرفة "الإبادة الجماعية للبيض" في استفسارات غير ذات صلة. كما حدد Grok بشكل خاطئ لقطات فيديو قديمة من مطار الخرطوم في السودان على أنها هجوم صاروخي على قاعدة نور خان الجوية الباكستانية خلال الصراع الهندي الباكستاني. بالإضافة إلى ذلك، تم تحديد مبنى محترق في نيبال بشكل خاطئ على أنه "محتمل" أنه يظهر ردًا عسكريًا باكستانيًا على هجوم هندي.
قيود التحقق من الحقائق بواسطة الذكاء الاصطناعي
قالت McKenzie Sadeghi، الباحثة في وكالة مراقبة المعلومات NewsGuard، لوكالة فرانس برس: "نظرًا لأن X وشركات التكنولوجيا الكبرى الأخرى قلصت الاستثمار في مدققي الحقائق البشريين، فإن الناس يعتمدون بشكل متزايد على Grok كمدقق للحقائق". وحذرت قائلة: "لقد وجدت دراساتنا مرارًا وتكرارًا أن روبوتات الدردشة التي تعمل بالذكاء الاصطناعي ليست مصدرًا موثوقًا للأخبار والمعلومات، خاصة عندما يتعلق الأمر بالأخبار العاجلة."
وجدت دراسة NewsGuard أن 10 روبوتات دردشة رائدة، بما في ذلك Grok، كررت بسهولة معلومات مضللة، بما في ذلك الروايات الدعائية الروسية والمزاعم الزائفة أو المضللة المتعلقة بالانتخابات الأسترالية الأخيرة. وكشفت دراسة حديثة أجراها مركز Tow Center للصحافة الرقمية في جامعة كولومبيا (Columbia University) لثمانية أدوات بحث تعمل بالذكاء الاصطناعي أن روبوتات الدردشة "عادة ما تكون غير ماهرة في رفض الإجابة على الأسئلة التي لا يمكنهم الإجابة عليها بدقة، بل تقدم إجابات غير صحيحة أو تخمينية."
سأل مدققو الحقائق في وكالة فرانس برس في أوروغواي (Uruguay) برنامج Gemini عن صورة لامرأة تم إنشاؤها بواسطة الذكاء الاصطناعي. لم يؤكد Gemini صحة الصورة فحسب، بل قام أيضًا بتلفيق تفاصيل حول هوية المرأة والمكان الذي ربما تم التقاط الصورة فيه.
صنف Grok مؤخرًا مقطع فيديو يُزعم أنه لثعبان ضخم يسبح في نهر الأمازون (Amazon River) على أنه "حقيقي"، بل واستشهد ببعثة علمية تبدو موثوقة لدعم ادعائه الكاذب. في الواقع، تم إنشاء الفيديو بواسطة الذكاء الاصطناعي، وأفاد مدققو الحقائق في وكالة فرانس برس في أمريكا اللاتينية أن العديد من المستخدمين استشهدوا بتقييم Grok كدليل على أن الفيديو حقيقي.
المخاوف بشأن التحقق من الحقائق بواسطة الذكاء الاصطناعي
أثارت هذه النتائج مخاوف، حيث أظهرت الدراسات الاستقصائية أن عددًا متزايدًا من مستخدمي الإنترنت يتحولون من محركات البحث التقليدية إلى روبوتات الدردشة التي تعمل بالذكاء الاصطناعي لجمع المعلومات والتحقق منها. في غضون ذلك، أعلنت Meta في وقت سابق من هذا العام أنها ستنهي برنامج التحقق من الحقائق التابع لجهة خارجية في الولايات المتحدة، وتحول مهمة دحض الشائعات إلى المستخدمين العاديين، باستخدام نموذج يسمى "ملاحظات المجتمع"، والذي روجت له منصة X. ومع ذلك، شكك الباحثون مرارًا وتكرارًا في فعالية "ملاحظات المجتمع" في مكافحة المعلومات الخاطئة.
لطالما كان التحقق من الحقائق البشرية نقطة اشتعال في مناخ سياسي مستقطب، لا سيما في الولايات المتحدة، حيث يجادل المحافظون بأنه يقمع حرية التعبير ويراقب المحتوى اليميني، وهو ادعاء يرفضه مدققو الحقائق المحترفون بشدة.
تتعاون وكالة فرانس برس حاليًا مع برنامج التحقق من الحقائق في فيسبوك (Facebook) بـ 26 لغة، بما في ذلك في آسيا وأمريكا اللاتينية والاتحاد الأوروبي.
يمكن أن تختلف جودة روبوتات الدردشة التي تعمل بالذكاء الاصطناعي ودقتها بشكل كبير اعتمادًا على كيفية تدريبها وبرمجتها، مما يثير مخاوف بشأن إمكانية تأثير أو التحكم في مخرجاتها سياسيًا.
ألقت xAI الخاصة بـ Elon Musk مؤخرًا باللوم على "تعديل غير مصرح به" بسبب قيام Grok بإنشاء منشورات غير مرغوب فيها تذكر "الإبادة الجماعية للبيض" في جنوب إفريقيا. عندما سأل David Caswell، خبير الذكاء الاصطناعي، Grok عن الجهة التي ربما تكون قد عدلت مطالبات نظامه، أدرج روبوت الدردشة ماسك (Musk) على أنه "الأكثر احتمالية" ليكون الجاني.
ماسك (Musk) هو ملياردير ومؤيد للرئيس الأمريكي دونالد ترامب (Donald Trump) مولود في جنوب إفريقيا. وقد نشر سابقًا مزاعم لا أساس لها من الصحة تفيد بأن قادة جنوب إفريقيا "يروّجون علنًا للإبادة الجماعية للبيض".
قالت Angie Holan، مديرة الشبكة الدولية لتقصي الحقائق، لوكالة فرانس برس: "لقد رأينا مساعدين يعملون بالذكاء الاصطناعي يقومون بتلفيق النتائج أو إعطاء إجابات متحيزة بعد أن قام المبرمجون البشريون بتغيير تعليماتهم خصيصًا." وتابعت: "أنا قلقة بشكل خاص بشأن الطريقة التي يتعامل بها Grok مع الطلبات المتعلقة بالأمور الحساسة للغاية بعد تلقي تعليمات لتقديم إجابات مُرخصة مسبقًا."
مخاطر روبوتات الدردشة التي تعمل بالذكاء الاصطناعي في مجال المعلومات
إن الاستخدام المتزايد لروبوتات الدردشة المدعومة بالذكاء الاصطناعي في توفير المعلومات يثير مخاوف جدية بشأن تأثيرها المضلل والتلاعبي المحتمل. على الرغم من أن هذه التقنيات تقدم مزايا في سرعة الوصول إلى المعلومات وتبسيط البحث، إلا أن القيود والتحيزات المتأصلة فيها قد تؤدي عن غير قصد أو عن قصد إلى نشر معلومات خاطئة أو دعائية.
القيود المتأصلة في روبوتات الدردشة التي تعمل بالذكاء الاصطناعي
تتعلم روبوتات الدردشة التي تعمل بالذكاء الاصطناعي عن طريق تحليل كميات هائلة من البيانات النصية، إلا أنها تفتقر إلى القدرات البشرية في التفكير النقدي. وهذا يعني أنها قد تستخلص أنماطًا من البيانات وتنتج استجابات تبدو معقولة، لكنها لا تفهم حقًا المعنى أو السياق الأساسي. قد يؤدي هذا النقص في المعرفة إلى توليد معلومات غير دقيقة أو غير كاملة أو مضللة.
بالإضافة إلى ذلك، قد تحتوي بيانات التدريب الخاصة بروبوتات الدردشة التي تعمل بالذكاء الاصطناعي على تحيزات تنعكس في الاستجابات التي يتم إنشاؤها. على سبيل المثال، إذا كانت بيانات التدريب تأتي بشكل أساسي من مصدر أو وجهة نظر معينة، فقد يُظهر روبوت الدردشة تفضيلًا لذلك المصدر أو وجهة النظر، وبالتالي ينشر معلومات متحيزة.
المخاطر التي تشكلها روبوتات الدردشة التي تعمل بالذكاء الاصطناعي
نظرًا لأن عددًا متزايدًا من الأشخاص يعتمدون على روبوتات الدردشة التي تعمل بالذكاء الاصطناعي للحصول على المعلومات، فإن خطر انتشار المعلومات الخاطئة يتزايد أيضًا. إذا أنتج روبوت الدردشة معلومات غير دقيقة أو مضللة، فقد يقبل المستخدمون هذه المعلومات وينشرونها دون علم، مما يؤدي إلى انتشار معتقدات خاطئة.
علاوة على ذلك، يمكن استخدام روبوتات الدردشة التي تعمل بالذكاء الاصطناعي لأغراض ضارة، مثل نشر الدعاية أو التلاعب بالرأي العام. من خلال تصميم بيانات التدريب أو تعديل الخوارزميات بعناية، يمكن للجهات الخبيثة التلاعب بروبوتات الدردشة لإنتاج أنواع معينة من الاستجابات، وبالتالي التأثير على معتقدات المستخدمين وسلوكياتهم.
كيف نقلل من المخاطر
للتخفيف من المخاطر المرتبطة بروبوتات الدردشة التي تعمل بالذكاء الاصطناعي، هناك عدد من التدابير التي يمكن اتخاذها. أولاً، يجب على المطورين السعي لضمان أن تكون بيانات التدريب الخاصة بروبوتات الدردشة التي تعمل بالذكاء الاصطناعي شاملة وغير متحيزة قدر الإمكان. قد يتطلب ذلك تضمين مجموعة متنوعة من عينات البيانات من مصادر ووجهات نظر مختلفة لتقليل تأثير التحيزات.
ثانيًا، يجب إخضاع روبوتات الدردشة التي تعمل بالذكاء الاصطناعي لاختبار وتقييم صارمين لتحديد وتصحيح أي ميول غير دقيقة أو متحيزة. قد يتطلب ذلك التحقق البشري من الاستجابات التي تم إنشاؤها بواسطة روبوت الدردشة واستخدام مجموعة متنوعة من المقاييس لتقييم دقتها ونزاهتها.
ثالثًا، يجب على المستخدمين التفكير النقدي وعدم الوثوق بشكل أعمى في المعلومات التي تقدمها روبوتات الدردشة التي تعمل بالذكاء الاصطناعي. يجب على المستخدمين دائمًا مقارنة المعلومات من مصادر مختلفة والانتباه إلى التحيزات المحتملة لروبوت الدردشة.
دور المنصات التقنية والمجتمعات
تلعب المنصات التقنية والمجتمعات دورًا مهمًا في تنظيم والإشراف على المحتوى الذي يتم إنشاؤه بواسطة روبوتات الدردشة التي تعمل بالذكاء الاصطناعي. يمكن للمنصات تنفيذ سياسات لتحديد وإزالة المعلومات الخاطئة أو الدعاية، ويمكنها التعاون مع منظمات التحقق من الحقائق للتحقق من دقة الاستجابات التي تولدها روبوتات الدردشة. بالإضافة إلى ذلك، يمكن للمجتمعات المساعدة في رفع مستوى وعي المستخدمين من خلال تسهيل المناقشات حول القيود والتحيزات في روبوتات الدردشة التي تعمل بالذكاء الاصطناعي وتشجيع المستخدمين على التفكير النقدي.
خاتمة
روبوتات الدردشة التي تعمل بالذكاء الاصطناعي هي أداة مفيدة، ولكن هناك قيود ومخاطر متأصلة فيها. لضمان استخدام هذه التقنيات بمسؤولية وتقليل انتشار المعلومات الخاطئة والتلاعب، يجب على المطورين والجهات التنظيمية والمستخدمين البقاء يقظين. من خلال اتخاذ التدابير اللازمة، يمكننا تحقيق أقصى قدر من مزايا روبوتات الدردشة التي تعمل بالذكاء الاصطناعي مع تقليل أضرارها المحتملة.