مستخدمو X يعاملون Grok كمدقق للحقائق يثير مخاوف

تصاعد دور الذكاء الاصطناعي في التحقق من المعلومات

لم يعد دمج الذكاء الاصطناعي في منصات التواصل الاجتماعي أمرًا جديدًا. إن خطوة X للسماح للمستخدمين بالتفاعل مع Grok من xAI هي، في بعض النواحي، مجرد اتباع لاتجاه سائد. وهذا يعكس نهج Perplexity، التي تدير حسابًا آليًا على X لتقديم تجربة مماثلة.

بعد أن أنشأت xAI وجود Grok الآلي على X، بدأ المستخدمون بسرعة في استكشاف قدراته، وطرح الأسئلة والبحث عن إجابات. في مناطق مثل الهند، ظهر نمط مقلق بشكل خاص: بدأ الأفراد في استخدام Grok للتحقق من التعليقات والاستعلامات، والتي استهدف العديد منها أيديولوجيات سياسية معينة.

مخاوف مدققي الحقائق البشر

هذا الاعتماد على Grok، وفي الواقع أي مساعد ذكاء اصطناعي من نوعه، للتحقق من الحقائق هو سبب للقلق الشديد. تكمن طبيعة روبوتات الذكاء الاصطناعي هذه في أنها تستطيع صياغة ردود تبدو مقنعة، بغض النظر عن دقتها الواقعية. هذا ليس قلقًا نظريًا؛ لدى Grok تاريخ موثق في نشر الأخبار المزيفة والمعلومات المضللة.

وقد حدثت حالة بارزة، حيث ناشد العديد من وزراء الولايات ماسك لإجراء تعديلات حاسمة على Grok. جاء هذا الطلب العاجل في أعقاب ظهور معلومات مضللة، تم إنشاؤها بواسطة مساعد الذكاء الاصطناعي، على الشبكات الاجتماعية، مما أثار أجراس الإنذار في الفترة التي سبقت الانتخابات.

Grok ليس وحده في هذا. تم العثور أيضًا على روبوتات محادثة بارزة أخرى، بما في ذلك ChatGPT من OpenAI و Gemini من Google، وهي تنتج معلومات غير دقيقة تتعلق بالانتخابات. وأكد باحثو التضليل كذلك على إمكانية إساءة الاستخدام، وكشفوا في عام 2023 أن روبوتات الدردشة المدعومة بالذكاء الاصطناعي مثل ChatGPT يمكن استغلالها بسهولة لإنشاء نصوص مقنعة تحتوي على روايات مضللة.

وهم الأصالة

أوضحت أنجي هولان، مديرة الشبكة الدولية لتدقيق الحقائق (IFCN) في Poynter، المشكلة الأساسية، قائلة: “مساعدو الذكاء الاصطناعي، مثل Grok، إنهم جيدون حقًا في استخدام اللغة الطبيعية وتقديم إجابة تبدو وكأن شخصًا ما قالها. وبهذه الطريقة، تتمتع منتجات الذكاء الاصطناعي هذه بميزة الطبيعية والاستجابات التي تبدو أصلية، حتى عندما تكون خاطئة للغاية. وهذا هو الخطر هنا.”

يكمن الخطر، كما تسلط هولان الضوء، في المظهر الخادع للأصالة. تخلق قدرة الذكاء الاصطناعي على محاكاة اللغة البشرية وهمًا بالمصداقية، حتى عندما تكون المعلومات الأساسية معيبة أو ملفقة بالكامل.

الفرق الجوهري: الذكاء الاصطناعي مقابل مدققي الحقائق البشر

التناقض بين مساعدي الذكاء الاصطناعي ومدققي الحقائق البشر صارخ. يتحقق مدققو الحقائق البشر بدقة من المعلومات، بالاعتماد على مصادر متعددة وموثوقة. إنهم يعملون بشفافية، ويربطون أسماءهم وانتماءاتهم التنظيمية بنتائجهم، وبالتالي يضمنون المساءلة ويعززون المصداقية.

أشار براتيك سينها، المؤسس المشارك لموقع Alt News الهندي غير الربحي لتدقيق الحقائق، إلى أنه في حين أن ردود Grok قد تبدو مقنعة في الوقت الحالي، إلا أن دقتها محدودة بشكل أساسي بالبيانات التي يتلقاها. وأشار إلى أن “من سيقرر البيانات التي يتم تزويدها بها، وهنا يأتي دور التدخل الحكومي، وما إلى ذلك”، مسلطًا الضوء على القضية الحاسمة المتعلقة بشفافية مصدر البيانات.

وأكد سينها أن الافتقار إلى الشفافية هو أرض خصبة للضرر المحتمل. “أي شيء يفتقر إلى الشفافية سوف يسبب ضررًا لأنه يمكن تشكيله بأي طريقة.”

اعتراف Grok: إمكانية إساءة الاستخدام

في مفارقة ساخرة إلى حد ما، اعترف حساب Grok على X، في إحدى ردوده المنشورة، بأنه “يمكن إساءة استخدامه - لنشر معلومات مضللة وانتهاك الخصوصية”.

على الرغم من هذا الاعتراف، فشل الحساب الآلي في تقديم أي إخلاء مسؤولية للمستخدمين الذين يتلقون إجاباته. هذا الإغفال يترك المستخدمين عرضة للتضليل، لا سيما في الحالات التي يكون فيها الذكاء الاصطناعي قد “هلوس” بالإجابة، وهي ظاهرة موثقة جيدًا في مجال الذكاء الاصطناعي حيث يقوم النظام بإنشاء معلومات خاطئة أو غير منطقية.

أوضحت أنوشكا جاين، الباحثة المشاركة في Digital Futures Lab، هذه النقطة، قائلة: “قد يختلق معلومات لتقديم استجابة”. يؤكد هذا الميل إلى تلفيق المعلومات على القيود المتأصلة في الذكاء الاصطناعي في سياق تدقيق الحقائق.

معضلة بيانات التدريب

تنشأ طبقة أخرى من التعقيد من مسألة بيانات تدريب Grok. هناك عدم يقين يحيط بمدى استخدام Grok للمنشورات على X كمواد تدريبية، وتدابير مراقبة الجودة، إن وجدت، المستخدمة للتحقق من صحة هذه المنشورات. يبدو أن التغيير الذي تم تنفيذه سابقًا قد منح Grok حق الوصول الافتراضي إلى بيانات مستخدم X، مما أثار مخاوف بشأن احتمال استيعاب الذكاء الاصطناعي للمعلومات المضللة الموجودة على النظام الأساسي ونشرها.

الاستهلاك العام مقابل الاستهلاك الخاص للمعلومات التي تم إنشاؤها بواسطة الذكاء الاصطناعي

هناك مصدر قلق كبير آخر يتعلق بالطبيعة العامة لمساعدي الذكاء الاصطناعي مثل Grok على منصات التواصل الاجتماعي. على عكس التفاعلات مع روبوتات الدردشة مثل ChatGPT، والتي تحدث عادةً في بيئة خاصة، يتم تقديم ردود Grok علنًا.

يخلق هذا النشر العام موقفًا، حتى لو كان أحد المستخدمين على علم بأن المعلومات التي يقدمها الذكاء الاصطناعي قد تكون غير دقيقة، فقد يظل المستخدمون الآخرون على النظام الأساسي يقبلونها على أنها حقيقة. هذا يمكن أن يؤدي إلى عواقب اجتماعية خطيرة.

توجد سوابق تاريخية. شهدت الهند، على سبيل المثال، حوادث مأساوية لعمليات إعدام جماعية خارج نطاق القانون غذتها معلومات مضللة تم تداولها عبر WhatsApp. هذه الأحداث، على الرغم من أنها سبقت التوافر الواسع النطاق للذكاء الاصطناعي التوليدي (GenAI)، إلا أنها بمثابة تذكير صارخ بالمخاطر الواقعية للمعلومات المضللة التي لم يتم التحقق منها. إن ظهور GenAI، بقدرته على إنشاء محتوى اصطناعي يبدو واقعيًا بشكل ملحوظ، لم يؤد إلا إلى تضخيم هذه المخاطر.

معدل خطأ الذكاء الاصطناعي

حذرت هولان من IFCN من أنه “إذا رأيت الكثير من إجابات Grok هذه، فستقول، مرحبًا، حسنًا، معظمها صحيح، وقد يكون هذا صحيحًا، ولكن سيكون هناك بعض الإجابات الخاطئة. وكم عددها؟ إنها ليست نسبة صغيرة. أظهرت بعض الدراسات البحثية أن نماذج الذكاء الاصطناعي تخضع لمعدلات خطأ تبلغ 20%… وعندما تسوء الأمور، يمكن أن تسوء حقًا مع عواقب وخيمة في العالم الحقيقي.”

معدل الخطأ البالغ 20%، كما أبرزته هولان، هو رقم كبير. إنه يؤكد عدم موثوقية الذكاء الاصطناعي المتأصلة في المواقف التي تتطلب دقة واقعية. وكما تؤكد، يمكن أن تكون عواقب هذه الأخطاء عميقة، وتمتد إلى ما هو أبعد من العالم الرقمي.

الذكاء الاصطناعي: أداة، وليس بديلاً عن الحكم البشري

في حين أن شركات الذكاء الاصطناعي، بما في ذلك xAI، تعمل باستمرار على تحسين نماذجها لتحقيق تواصل أشبه بالبشر، إلا أن الحقيقة الأساسية تظل: لا يمكن للذكاء الاصطناعي، ولا ينبغي له، أن يحل محل الحكم البشري، لا سيما في المجال الحاسم لتدقيق الحقائق.

إن الاتجاه السائد بين شركات التكنولوجيا لاستكشاف سبل للحد من الاعتماد على مدققي الحقائق البشر هو مدعاة للقلق. تبنت منصات مثل X و Meta مفهوم تدقيق الحقائق الجماعي، والذي تجسده مبادرات مثل ‘Community Notes’. هذه التحولات، على الرغم من أنها قد تقدم مزايا معينة، إلا أنها تثير أيضًا تساؤلات حول التآكل المحتمل لمعايير تدقيق الحقائق الصارمة.

هل يتأرجح البندول مرة أخرى إلى تدقيق الحقائق البشر؟

أعرب سينها من Alt News عن وجهة نظر متفائلة، مشيرًا إلى أن الناس سيتعلمون في النهاية التمييز بين مخرجات الآلات وعمل مدققي الحقائق البشر، ويقدرون في النهاية دقة وموثوقية الأخير.

توقعت هولان من IFCN: “سنرى البندول يتأرجح في النهاية نحو المزيد من تدقيق الحقائق”.

ومع ذلك، حذرت من أنه في غضون ذلك، من المرجح أن يواجه مدققو الحقائق عبء عمل متزايدًا بسبب الانتشار السريع للمعلومات التي تم إنشاؤها بواسطة الذكاء الاصطناعي. وسيكون التحدي هو مواجهة موجة المعلومات المضللة بشكل فعال، وضمان بقاء الجمهور على اطلاع بالحقيقة، وليس بالأوهام المقنعة.

السؤال الجوهري: الاهتمام بالحقيقة

في صميم الأمر يكمن سؤال أساسي: “هل تهتم حقًا بما هو صحيح بالفعل أم لا؟ هل تبحث فقط عن قشرة شيء يبدو ويشعر بأنه حقيقي دون أن يكون حقيقيًا بالفعل؟ لأن هذا ما سيوفره لك مساعد الذكاء الاصطناعي،” صرحت هولان.

يلخص هذا السؤال المعضلة الحاسمة التي يطرحها صعود الذكاء الاصطناعي في نشر المعلومات. هل نحن، كمجتمع، على استعداد لإعطاء الأولوية للراحة ومظهر الحقيقة على العملية الشاقة للتحقق من الحقائق؟ ستشكل الإجابة على هذا السؤال في النهاية مستقبل المعلومات، وتحدد ما إذا كنا سنستسلم لعالم من الحقائق المصطنعة أو نتمسك بمبادئ الحقيقة والدقة.