وهم الدقة
لقد اتخذ السعي وراء الحقيقة والمعلومات الموثوقة منعطفاً مقلقاً. ففي السعي الحثيث لإحداث ثورة في كيفية عثورنا على المعلومات عبر الإنترنت، تنهار الأسس الجوهرية للدقة الواقعية والثقة. يرسم تحقيق متعمق حديث أجرته مجلة Columbia Journalism Review (CJR) صورة قاتمة: فالآلات المصممة لتقديم الإجابات بسرعة البرق تروج في كثير من الأحيان للخيال على أنه حقيقة.
كان الوعد الأساسي لمحركات البحث هو ربط المستخدمين بمصادر موثوقة. الآن، يتآكل هذا الوعد. تعطي أدوات البحث المدعومة بالذكاء الاصطناعي الأولوية للسرعة على الجوهر بشكل متزايد، وتقدم إجابات تبدو واثقة ولكنها تفتقر إلى الدعم الأساسي للأدلة التي يمكن التحقق منها. ما نشهده هو تحول من نظام يوجه المستخدمين إلى معلومات موثوقة، إلى نظام يصنع الردود، غالبًا مع القليل من الاهتمام بصدقها.
هذه ليست مجرد مسألة أخطاء عرضية. إنها مشكلة نظامية. تكشف دراسة CJR أن محركات بحث الذكاء الاصطناعي لا ترتكب أخطاء فحسب؛ بل إنها تبني بنشاط واقعًا منفصلاً عن المصادر التي يمكن التحقق منها. إنهم يجمعون المحتوى من جميع أنحاء الويب، ولكن بدلاً من توجيه المستخدمين إلى المصادر الأصلية - مواقع الويب التي تنتج وتنشر المعلومات بجهد - فإنهم يقدمون إجابات فورية ومختلقة في كثير من الأحيان.
استنزاف حركة المرور والاستشهادات الوهمية
عواقب هذا النهج بعيدة المدى. التأثير المباشر هو انخفاض كبير في حركة المرور إلى المصادر الأصلية للمعلومات. تجد مواقع الويب والمؤسسات الإخبارية والباحثون الذين يستثمرون الوقت والموارد في إنشاء المحتوى أنفسهم متجاوزين. يحصل المستخدمون على إجاباتهم مباشرة من الذكاء الاصطناعي، دون الحاجة إلى زيارة المواقع التي نشأت منها المعلومات.
تؤكد دراسة منفصلة هذا الاتجاه المثير للقلق، حيث وجدت أن معدلات النقر إلى الظهور من نتائج البحث التي تم إنشاؤها بواسطة الذكاء الاصطناعي وروبوتات الدردشة أقل بكثير من تلك الخاصة بمحركات البحث التقليدية مثل Google. هذا يعني أن شريان الحياة للمحتوى عبر الإنترنت - القدرة على الوصول إلى الجمهور - يتم خنقه ببطء.
لكن المشكلة أعمق من ذلك. لا تفشل أدوات الذكاء الاصطناعي هذه في نسب الفضل إلى المصادر فحسب؛ بل إنها غالبًا ما تنشئ استشهادات وهمية. إنهم ينشئون روابط لصفحات ويب غير موجودة، أو إلى عناوين URL معطلة أو غير ذات صلة. هذا يشبه طالبًا يكتب ورقة بحثية ويخترع مصادر لدعم ادعاءاته. إنه ليس مجرد إهمال؛ إنه خرق أساسي للنزاهة الفكرية.
غوص عميق في الخداع
حللت دراسة CJR بدقة أداء العديد من نماذج البحث الرائدة في مجال الذكاء الاصطناعي. النتائج مقلقة للغاية. أدت أكثر من نصف الاستشهادات التي تم إنشاؤها بواسطة Gemini من Google و Grok 3 من xAI - وهما لاعبان بارزان في مشهد البحث بالذكاء الاصطناعي - إلى صفحات ويب ملفقة أو يتعذر الوصول إليها. هذا ليس خللاً بسيطًا؛ إنه فشل نظامي.
والمشكلة تتجاوز الاستشهادات. وُجد أن روبوتات الدردشة، بشكل عام، تقدم معلومات غير صحيحة في أكثر من 60٪ من الحالات. من بين النماذج التي تم تقييمها، برز Grok 3 باعتباره الأسوأ، حيث احتوت 94٪ من ردوده على أخطاء. تمكن Gemini، على الرغم من أدائه الأفضل قليلاً، من تقديم إجابة صحيحة بالكامل مرة واحدة فقط في كل عشر محاولات. حتى Perplexity، الذي ظهر كأكثر النماذج دقة التي تم اختبارها، لا يزال يعرض ردودًا غير صحيحة بنسبة 37٪ من الوقت.
هذه الأرقام ليست مجرد إحصائيات؛ إنها تمثل انهيارًا أساسيًا في موثوقية المعلومات. إنها تشير إلى أن الأدوات المصممة لمساعدتنا في التنقل في تعقيدات العالم الرقمي، تقودنا في الواقع إلى الضلال.
تجاهل القواعد: بروتوكول استبعاد الروبوت
كشف مؤلفو الدراسة عن جانب آخر مقلق لهذا الخداع الذي يحركه الذكاء الاصطناعي. يبدو أن العديد من نماذج الذكاء الاصطناعي تتجاهل عمدًا بروتوكول استبعاد الروبوت (Robot Exclusion Protocol). هذا البروتوكول هو آلية قياسية ومعتمدة على نطاق واسع تسمح لمواقع الويب بالتحكم في أجزاء موقعها التي يمكن الوصول إليها وجمعها بواسطة الروبوتات الآلية. إنها طريقة لمواقع الويب لحماية محتواها وإدارة كيفية استخدامه.
حقيقة أن محركات بحث الذكاء الاصطناعي تتجاهل هذا البروتوكول تثير تساؤلات أخلاقية خطيرة. إنه يشير إلى تجاهل حقوق منشئي المحتوى والاستعداد لاستغلال المعلومات عبر الإنترنت دون إذن. يقوض هذا السلوك الأسس الجوهرية للويب، والتي تعتمد على توازن دقيق بين الوصول إلى المعلومات وحماية الملكية الفكرية.
أصداء تحذيرات سابقة
نتائج دراسة CJR ليست معزولة. إنها تتوافق مع دراسة سابقة نُشرت في نوفمبر 2024، والتي ركزت على قدرات البحث في ChatGPT. كشف هذا التحقيق السابق عن نمط ثابت من الردود الواثقة ولكن غير الصحيحة، والاستشهادات المضللة، واسترجاع المعلومات غير الموثوق به. بعبارة أخرى، المشكلات التي حددتها CJR ليست جديدة؛ إنها مستمرة ومنهجية.
تآكل الثقة والفاعلية
ظل الخبراء في هذا المجال يدقون ناقوس الخطر بشأن مخاطر الذكاء الاصطناعي التوليدي لبعض الوقت. أثار نقاد مثل Chirag Shah و Emily M. Bender مخاوف من أن محركات بحث الذكاء الاصطناعي تؤدي إلى تآكل فاعلية المستخدم، وتضخيم التحيزات في الوصول إلى المعلومات، وتقديم إجابات مضللة أو حتى سامة في كثير من الأحيان قد يقبلها المستخدمون دون سؤال.
القضية الأساسية هي أن نماذج الذكاء الاصطناعي هذه مصممة لتبدو موثوقة، حتى عندما تكون خاطئة. يتم تدريبهم على مجموعات بيانات ضخمة من النصوص والتعليمات البرمجية، وهم قادرون على توليد ردود تحاكي اللغة البشرية بطلاقة ملحوظة. لكن هذه الطلاقة يمكن أن تكون خادعة. يمكن أن تخفي حقيقة أن المعلومات الأساسية معيبة أو ملفقة أو ببساطة غير صحيحة.
آليات التضليل
تضمنت دراسة CJR تحليلاً مفصلاً لـ 1600 استعلام، مصممة لمقارنة كيفية استرجاع نماذج بحث الذكاء الاصطناعي التوليدية المختلفة للمعلومات. ركز الباحثون على العناصر الرئيسية مثل العناوين الرئيسية والناشرين وتواريخ النشر وعناوين URL. لقد اختبروا مجموعة من النماذج، بما في ذلك ChatGPT Search و Microsoft CoPilot و DeepSeek Search و Perplexity (وإصداره Pro) و Grok-2 و Grok-3 Search من xAI و Google Gemini.
كانت منهجية الاختبار صارمة. استخدم الباحثون مقتطفات مباشرة من عشر مقالات تم اختيارها عشوائيًا، مصدرها 20 ناشرًا مختلفًا. ضمن هذا النهج أن الاستعلامات كانت تستند إلى محتوى واقعي وأن النماذج يتم تقييمها بناءً على قدرتها على استرداد هذا المحتوى وتمثيله بدقة.
النتائج، كما هو مفصل سابقًا، ترسم صورة قاتمة لحالة البحث الذي يحركه الذكاء الاصطناعي. الأدوات التي أصبحت بشكل متزايد بواباتنا الأساسية للمعلومات غير موثوقة بشكل واضح، وعرضة للتلفيق، وغالبًا ما تكون غير محترمة للمصادر التي تعتمد عليها.
الآثار المترتبة على مستقبل المعلومات
الآثار المترتبة على هذا التضليل واسع النطاق عميقة. إذا لم نتمكن من الوثوق بالأدوات التي نستخدمها للعثور على المعلومات، فكيف يمكننا اتخاذ قرارات مستنيرة؟ كيف يمكننا الانخراط في نقاش هادف؟ كيف يمكننا محاسبة السلطة؟
يشكل صعود البحث المدعوم بالذكاء الاصطناعي، بعيوبه وتحيزاته المتأصلة، تهديدًا كبيرًا لنسيج نظام المعلومات البيئي لدينا. إنه يقوض مصداقية المؤسسات الإخبارية والباحثين ومنشئي المحتوى الآخرين. إنه يقوض ثقة الجمهور في المؤسسات. ويمكّن أولئك الذين يسعون إلى نشر المعلومات المضللة والتلاعب بالرأي العام.
التحدي الذي يواجهنا ليس مجرد تحسين دقة محركات بحث الذكاء الاصطناعي. إنه إعادة التفكير بشكل أساسي في الطريقة التي نتعامل بها مع البحث عن المعلومات في العصر الرقمي. نحن بحاجة إلى إعطاء الأولوية للشفافية والمساءلة واحترام مصادر المعلومات. نحن بحاجة إلى تطوير أدوات واستراتيجيات تمكن المستخدمين من تقييم المعلومات التي يواجهونها عبر الإنترنت بشكل نقدي. ونحن بحاجة إلى تعزيز ثقافة الشك والتفكير النقدي، حيث لا نكون مجرد متلقين سلبيين للمعلومات، بل مشاركين نشطين في البحث عن الحقيقة. يعتمد مستقبل الخطاب المستنير، وربما حتى الديمقراطية نفسها، على ذلك.
أزمة التضليل في البحث المدعوم بالذكاء الاصطناعي ليست مجرد مشكلة تقنية؛ إنها مشكلة مجتمعية. إنها تتطلب استجابة متعددة الأوجه، لا تشمل المهندسين والمطورين فحسب، بل تشمل أيضًا الصحفيين والمعلمين وصانعي السياسات وعامة الناس. يجب أن نعمل بشكل جماعي لبناء نظام معلومات بيئي أكثر موثوقية وجدارة بالثقة وشفافية، نظام يخدم احتياجات المواطنين المطلعين، وليس مروجي الأكاذيب.
المسار الحالي غير مستدام. إذا استمر بحث الذكاء الاصطناعي في إعطاء الأولوية للسرعة والراحة على الدقة والحقيقة، فإننا نخاطر بخلق عالم يسود فيه التضليل، وحيث يصبح مفهوم الواقع الموضوعي بعيد المنال بشكل متزايد. المخاطر ببساطة كبيرة جدًا بحيث لا تسمح بحدوث ذلك.