أدوات الذكاء الاصطناعي تخفق في الاستشهاد بالمصادر بدقة

مشكلة الاستشهادات غير الدقيقة

كشفت دراسة حديثة عن نقص كبير في الجيل الحالي من أدوات البحث التوليدية بالذكاء الاصطناعي: فهي غالبًا ما تفشل في توفير استشهادات دقيقة للمقالات الإخبارية. يمثل هذا القيد تذكيرًا حاسمًا بحدود هذه التقنيات سريعة التطور، خاصة وأن منصات الوسائط الاجتماعية تدمجها بشكل متزايد في تجارب المستخدم.

أجرى مركز Tow للصحافة الرقمية الدراسة، وكانت نتائجه مقلقة. يشير البحث إلى أن غالبية محركات البحث البارزة بالذكاء الاصطناعي تكافح من أجل الاستشهاد بشكل صحيح بالمقالات الإخبارية. غالبًا ما تختلق الأدوات روابط مرجعية أو ببساطة لا يمكنها تقديم إجابة عند الاستعلام عن مصدر.

مثلت الدراسة بصريًا أداء روبوتات الدردشة المختلفة بالذكاء الاصطناعي في مخطط، وكشفت عن نقص عام في الموثوقية في توفير الاستشهادات ذات الصلة. والجدير بالذكر أن روبوت الدردشة Grok التابع لـ xAI، والذي روج له إيلون ماسك باعتباره ‘الأكثر صدقًا’ بين أدوات الذكاء الاصطناعي، كان من بين أقل الموارد دقة أو موثوقية في هذا الصدد.

ذكر التقرير:

“بشكل عام، قدمت روبوتات الدردشة إجابات غير صحيحة لأكثر من 60٪ من الاستعلامات. عبر المنصات المختلفة، تباين مستوى عدم الدقة، حيث أجاب Perplexity على 37٪ من الاستعلامات بشكل غير صحيح، في حين كان لدى Grok معدل خطأ أعلى بكثير، حيث أجاب على 94٪ من الاستعلامات بشكل غير صحيح.”

يسلط هذا الضوء على تباين كبير في مستويات الدقة لأدوات الذكاء الاصطناعي المختلفة، حيث كان أداء بعضها أسوأ بكثير من غيرها.

الوصول إلى المحتوى المقيد

جانب آخر مثير للقلق كشف عنه التقرير يتعلق بقدرة أدوات الذكاء الاصطناعي على الوصول إلى المعلومات وتقديمها من مصادر نفذت تدابير لمنع تجريف الذكاء الاصطناعي.

لاحظ التقرير:

“في بعض الأحيان، إما أن روبوتات الدردشة أجابت بشكل غير صحيح أو رفضت الإجابة على استعلامات من ناشرين سمحوا لهم بالوصول إلى محتواهم. من ناحية أخرى، أجابوا في بعض الأحيان بشكل صحيح على استعلامات حول ناشرين لم يكن من المفترض أن يتمكنوا من الوصول إلى محتواهم.”

تشير هذه الملاحظة إلى أن بعض مزودي الذكاء الاصطناعي قد لا يحترمون أوامر robots.txt المصممة لمنعهم من الوصول إلى المواد المحمية بحقوق الطبع والنشر. يثير هذا تساؤلات حول الآثار الأخلاقية والقانونية لأدوات الذكاء الاصطناعي التي تتحايل على هذه القيود.

الاعتماد المتزايد على الذكاء الاصطناعي للبحث

تكمن المشكلة الأساسية في الاعتماد المتزايد على أدوات الذكاء الاصطناعي كمحركات بحث، خاصة بين المستخدمين الأصغر سنًا. ينشأ العديد من الشباب الآن مع ChatGPT كأداة بحث أساسية لهم. هذا الاتجاه مقلق، نظرًا لعدم موثوقية أدوات الذكاء الاصطناعي التي تم إثباتها في توفير معلومات دقيقة وتثقيف المستخدمين بشكل موثوق حول الموضوعات الرئيسية.

تعد نتائج البحث بمثابة تذكير صارخ بأن الردود التي تم إنشاؤها بواسطة الذكاء الاصطناعي ليست دائمًا ذات قيمة أو حتى قابلة للاستخدام. يكمن الخطر الحقيقي في الترويج لهذه الأدوات كبدائل للبحث الحقيقي واختصارات للمعرفة. بالنسبة للمستخدمين الأصغر سنًا على وجه الخصوص، قد يؤدي هذا إلى جيل من الأفراد الأقل اطلاعًا والأقل تجهيزًا والذين يعتمدون بشكل مفرط على أنظمة معيبة محتملة.

الذكاء الاصطناعي كأداة، وليس كحل

لخص مارك كوبان، رجل الأعمال المعروف، هذا التحدي بشكل فعال خلال جلسة في SXSW. وشدد على:

“الذكاء الاصطناعي ليس هو الحل أبدًا. الذكاء الاصطناعي هو الأداة. مهما كانت المهارات التي لديك، يمكنك استخدام الذكاء الاصطناعي لتضخيمها.”

يؤكد منظور كوبان أنه في حين أن أدوات الذكاء الاصطناعي يمكن أن تقدم مزايا ويجب استكشافها لقدرتها على تحسين الأداء، إلا أنها ليست حلولًا قائمة بذاتها.

يمكن للذكاء الاصطناعي إنشاء محتوى فيديو، لكنه يفتقر إلى القدرة على تطوير قصة مقنعة، وهي العنصر الأكثر أهمية. وبالمثل، يمكن للذكاء الاصطناعي إنتاج كود للمساعدة في تطوير التطبيقات، لكنه لا يستطيع بناء التطبيق الفعلي نفسه.

تسلط هذه القيود الضوء على الدور الذي لا غنى عنه للتفكير النقدي والخبرة البشرية. يمكن لمخرجات الذكاء الاصطناعي أن تساعد بلا شك في مهام مختلفة، لكنها لا يمكن أن تحل محل الحاجة الأساسية للإبداع والمهارة البشرية.

الحاجة إلى التقييم النقدي وتنمية المهارات

يكمن القلق، خاصة في سياق هذا البحث، في أن الشباب يتم دفعهم إلى الاعتقاد بأن أدوات الذكاء الاصطناعي يمكن أن تقدم إجابات نهائية. ومع ذلك، تُظهر الدراسة، إلى جانب العديد من الجهود البحثية الأخرى، باستمرار أن الذكاء الاصطناعي ليس بارعًا بشكل خاص في هذا الأمر.

بدلاً من الترويج للذكاء الاصطناعي كبديل لأساليب البحث التقليدية، يجب أن ينصب التركيز على تثقيف الأفراد حول كيفية قيام هذه الأنظمة بتعزيز قدراتهم الحالية. للاستفادة الفعالة من الذكاء الاصطناعي، يجب أن يمتلك المستخدمون أولاً مهارات بحث وتحليل قوية، بالإضافة إلى الخبرة في المجالات ذات الصلة.

التعمق في الآثار المترتبة

تمتد الآثار المترتبة على هذا البحث إلى ما هو أبعد من القلق المباشر بشأن الاستشهادات غير الدقيقة. إنه يثير تساؤلات أوسع حول دور الذكاء الاصطناعي في تشكيل فهمنا للعالم وإمكانية انتشار المعلومات المضللة بسرعة.

1. تآكل الثقة في مصادر المعلومات:

عندما تقدم أدوات الذكاء الاصطناعي باستمرار استشهادات غير صحيحة أو ملفقة، فإنها تؤدي إلى تآكل الثقة في نظام المعلومات البيئي ككل. قد يصبح المستخدمون متشككين بشكل متزايد في جميع المصادر، مما يجعل من الصعب التمييز بين المعلومات الموثوقة وغير الموثوقة.

2. التأثير على التعليم والتعلم:

يمكن أن يكون للاعتماد على أدوات الذكاء الاصطناعي في البحث، خاصة بين المستخدمين الأصغر سنًا، آثار ضارة على التعليم والتعلم. قد يطور الطلاب فهمًا سطحيًا للموضوعات، ويفتقرون إلى مهارات التفكير النقدي اللازمة لتقييم المعلومات بشكل فعال.

3. المسؤوليات الأخلاقية لمطوري الذكاء الاصطناعي:

تسلط نتائج هذه الدراسة الضوء على المسؤوليات الأخلاقية لمطوري الذكاء الاصطناعي. يجب عليهم إعطاء الأولوية للدقة والشفافية في أنظمتهم والتأكد من عدم استخدام أدوات الذكاء الاصطناعي لنشر معلومات مضللة أو تقويض سلامة مصادر المعلومات.

4. الحاجة إلى محو الأمية الإعلامية والتفكير النقدي:

في عصر يهيمن عليه المحتوى الذي يتم إنشاؤه بواسطة الذكاء الاصطناعي، أصبحت محو الأمية الإعلامية ومهارات التفكير النقدي أكثر أهمية من أي وقت مضى. يجب أن يكون الأفراد مجهزين لتقييم المعلومات بشكل نقدي، وتحديد التحيزات، والتمييز بين المصادر الموثوقة وغير الموثوقة.

5. مستقبل الذكاء الاصطناعي في البحث واسترجاع المعلومات:

يؤكد البحث على الحاجة إلى التطوير المستمر وتحسين أدوات الذكاء الاصطناعي للبحث واسترجاع المعلومات. في حين أن الذكاء الاصطناعي لديه القدرة على إحداث ثورة في هذه المجالات، فمن الأهمية بمكان معالجة القيود الحالية والتأكد من استخدام هذه الأدوات بمسؤولية وأخلاقية.

التوسع في مخاوف محددة

دعونا نتعمق أكثر في بعض المخاوف المحددة التي أثارها البحث:

أ. مشكلة “الهلوسة”:

تشتهر روبوتات الدردشة بالذكاء الاصطناعي بميلها إلى “الهلوسة”، أو توليد معلومات ملفقة بالكامل. يمثل هذا مشكلة خاصة في سياق الاستشهادات، حيث تكون الدقة أمرًا بالغ الأهمية. إن اكتشاف الدراسة أن أدوات الذكاء الاصطناعي غالبًا ما تختلق روابط مرجعية يسلط الضوء على خطورة هذه المشكلة.

ب. مشكلة التحيز:

يتم تدريب نماذج الذكاء الاصطناعي على مجموعات بيانات ضخمة، والتي قد تحتوي على تحيزات تعكس التحيزات المجتمعية أو وجهات النظر المنحرفة. يمكن أن تظهر هذه التحيزات في استجابات الذكاء الاصطناعي، مما يؤدي إلى معلومات غير دقيقة أو مضللة. هذا مقلق بشكل خاص عندما يتم استخدام أدوات الذكاء الاصطناعي للبحث في موضوعات حساسة أو مثيرة للجدل.

ج. مشكلة الشفافية:

غالبًا ما تكون الأعمال الداخلية للعديد من نماذج الذكاء الاصطناعي مبهمة، مما يجعل من الصعب فهم كيفية وصولها إلى استنتاجاتها. هذا النقص في الشفافية يجعل من الصعب تحديد وتصحيح الأخطاء أو التحيزات في النظام.

د. مشكلة حقوق النشر:

إن اكتشاف الدراسة أن بعض أدوات الذكاء الاصطناعي تصل إلى محتوى من مصادر حظرتها يثير مخاوف جدية تتعلق بحقوق النشر. يجب على مطوري الذكاء الاصطناعي احترام حقوق الملكية الفكرية والتأكد من عدم استخدام أدواتهم لانتهاك حقوق النشر.

الطريق إلى الأمام: تطوير الذكاء الاصطناعي المسؤول والتعليم

يتطلب الطريق إلى الأمام نهجًا ذا شقين: تطوير الذكاء الاصطناعي المسؤول والتعليم الشامل.

1. تطوير الذكاء الاصطناعي المسؤول:

يجب على مطوري الذكاء الاصطناعي إعطاء الأولوية للدقة والشفافية والاعتبارات الأخلاقية في تصميم وتنفيذ أنظمتهم. هذا يشمل:

  • تحسين دقة الاقتباس: تطوير تقنيات لضمان أن أدوات الذكاء الاصطناعي توفر اقتباسات دقيقة ويمكن التحقق منها.
  • معالجة التحيز: تنفيذ طرق للتخفيف من التحيز في نماذج الذكاء الاصطناعي والتأكد من أنها تقدم معلومات عادلة ومتوازنة.
  • تعزيز الشفافية: جعل نماذج الذكاء الاصطناعي أكثر شفافية وقابلية للتفسير، مما يسمح للمستخدمين بفهم كيفية وصولهم إلى استنتاجاتهم.
  • احترام حقوق النشر: التأكد من أن أدوات الذكاء الاصطناعي تحترم حقوق الملكية الفكرية ولا تصل إلى المواد المحمية بحقوق الطبع والنشر أو تستخدمها دون إذن.

2. التعليم الشامل:

يجب تثقيف الأفراد، وخاصة الشباب، حول قدرات وقيود أدوات الذكاء الاصطناعي. هذا يشمل:

  • تعزيز محو الأمية الإعلامية: تعليم مهارات التفكير النقدي والقدرة على تقييم المعلومات من مصادر مختلفة.
  • التأكيد على مهارات البحث: تعزيز أهمية أساليب البحث التقليدية والقدرة على التحقق من المعلومات بشكل مستقل.
  • فهم قيود الذكاء الاصطناعي: تثقيف المستخدمين حول إمكانية قيام الذكاء الاصطناعي بإنشاء معلومات غير دقيقة أو متحيزة.
  • تشجيع الاستخدام المسؤول: تعزيز الاستخدام المسؤول والأخلاقي لأدوات الذكاء الاصطناعي.

من خلال الجمع بين تطوير الذكاء الاصطناعي المسؤول والتعليم الشامل، يمكننا تسخير إمكانات الذكاء الاصطناعي مع التخفيف من مخاطره. الهدف هو خلق مستقبل يكون فيه الذكاء الاصطناعي بمثابة أداة قيمة للتعلم والاكتشاف، بدلاً من أن يكون مصدرًا للمعلومات المضللة والارتباك. تقدم نتائج هذه الدراسة تذكيرًا حاسمًا بالعمل الذي ينتظرنا. تتطلب الرحلة نحو مجتمع مستنير حقًا ومثقف بالذكاء الاصطناعي يقظة مستمرة وتقييمًا نقديًا والتزامًا بالابتكار المسؤول.