روبوتات الدردشة: مصدر معلومات مضللة؟

الاعتماد على التحقق من الحقائق بالذكاء الاصطناعي وعيوبه خلال النزاعات

خلال صراع استمر أربعة أيام بين الهند وباكستان، لجأ مستخدمو وسائل التواصل الاجتماعي إلى روبوتات الدردشة التي تعمل بالذكاء الاصطناعي للتحقق من المعلومات. ومع ذلك، واجهوا المزيد من المعلومات المضللة، مما يسلط الضوء على عدم موثوقية روبوتات الدردشة هذه كأدوات للتحقق من الحقائق. مع تقليل منصات التكنولوجيا تدريجيًا لعدد مدققي الحقائق البشريين، يعتمد المستخدمون بشكل متزايد على روبوتات الدردشة المدعومة بالذكاء الاصطناعي، بما في ذلك Grok من xAI و ChatGPT من OpenAI و Gemini من Google، للعثور على معلومات موثوقة. ولكن تبين أن الردود التي تقدمها روبوتات الدردشة التي تعمل بالذكاء الاصطناعي غالبًا ما تكون مليئة بالمعلومات الخاطئة.

لقد ظهرت طريقة شائعة للاستعلام على منصة X (تويتر سابقًا) التابعة لإيلون ماسك، وهي: "@Grok، هل هذا صحيح؟". يعكس Grok، وهو مساعد يعمل بالذكاء الاصطناعي مدمج في النظام الأساسي، الميل المتزايد لطلب دحض سريع للشائعات على وسائل التواصل الاجتماعي. ومع ذلك، غالبًا ما تكون الردود التي تقدمها روبوتات الدردشة التي تعمل بالذكاء الاصطناعي مليئة بالمعلومات الخاطئة.

أمثلة على روبوتات الدردشة التي تعمل بالذكاء الاصطناعي وتنشر معلومات غير دقيقة

يخضع Grok حاليًا لتدقيق جديد بسبب تقارير تفيد بأنه قام بإدراج نظرية المؤامرة اليمينية المتطرفة "الإبادة الجماعية للبيض" في استفسارات غير ذات صلة. لقد حددت بشكل غير صحيح مقطع فيديو قديمًا لمطار الخرطوم في السودان على أنه هجوم صاروخي على قاعدة نور خان الجوية الباكستانية خلال الصراع الهندي الباكستاني. بالإضافة إلى ذلك، تم تحديد مقطع فيديو غير ذي صلة لحريق في مبنى نيبالي بشكل غير صحيح على أنه يظهر "ربما" ردًا باكستانيًا على الهجمات الهندية.

قام Grok مؤخرًا أيضًا بتصنيف مقطع فيديو يُفترض أنه تم التقاطه لثعبان الأناكوندا العملاق في نهر الأمازون على أنه "حقيقي"، بل واستشهد برحلة استكشافية علمية تبدو ذات مصداقية لدعم ادعائه الكاذب. في الواقع، الفيديو تم إنشاؤه بواسطة الذكاء الاصطناعي. وأشار مدققو الحقائق التابعون لوكالة فرانس برس في أمريكا اللاتينية إلى أن العديد من المستخدمين استشهدوا بتقييم Grok كدليل على أن المقطع أصيل.

تخفيض الاستثمار في مدققي الحقائق

مع قيام X وشركات التكنولوجيا الكبرى الأخرى بتقليل الاستثمار في مدققي الحقائق البشريين، هناك اعتماد متزايد على Grok كمدقق للحقائق. تحذر ماكنزي سايدجي، الباحثة في منظمة مراقبة الأخبار NewsGuard: "لقد وجدت أبحاثنا مرارًا وتكرارًا أن روبوتات الدردشة التي تعمل بالذكاء الاصطناعي ليست مصادر موثوقة للأخبار والمعلومات، خاصة عندما يتعلق الأمر بالأخبار العاجلة."

وجدت دراسة NewsGuard أن 10 روبوتات دردشة رائدة كانت عرضة لتكرار معلومات خاطئة، بما في ذلك الروايات الروسية المضللة والمزاعم الكاذبة أو المضللة المتعلقة بالانتخابات الأخيرة في أستراليا. وجدت دراسة حديثة أجراها مركز تاو للصحافة الرقمية التابع لجامعة كولومبيا لثماني أدوات بحث تعمل بالذكاء الاصطناعي أن روبوتات الدردشة "عادة ما تكون سيئة في رفض الإجابة على الأسئلة التي لا يمكنها الإجابة عليها بدقة، وبدلاً من ذلك تقدم إجابات غير صحيحة أو تخمينية".

معاناة الذكاء الاصطناعي في تأكيد الصور الكاذبة وتفاصيل التصنيع

عندما سأل مدققو الحقائق التابعون لوكالة فرانس برس في الأوروغواي Gemini عن صورة تم إنشاؤها بواسطة الذكاء الاصطناعي لامرأة، لم تؤكد فقط صحة الصورة، بل اختلقت أيضًا تفاصيل حول هويتها والمكان الذي ربما تم التقاط الصورة فيه.

أثارت مثل هذه النتائج مخاوف، حيث أظهرت الدراسات الاستقصائية أن مستخدمي الإنترنت يتحولون بشكل متزايد من محركات البحث التقليدية إلى روبوتات الدردشة التي تعمل بالذكاء الاصطناعي للحصول على المعلومات والتحقق منها.

تحول Meta في أساليب التحقق من الحقائق

في وقت سابق من هذا العام، أعلنت Meta أنها ستنهي برنامج التحقق من الحقائق التابع لجهات خارجية في الولايات المتحدة، وتحول مهمة فضح المعلومات الكاذبة إلى المستخدمين العاديين، مع نموذج يُعرف باسم "ملاحظات المجتمع"، وهو نموذج تم الترويج له بواسطة X. ومع ذلك، فقد شكك الباحثون مرارًا وتكرارًا في فعالية "ملاحظات المجتمع" في مكافحة المعلومات الكاذبة.

التحديات والخلافات التي تواجه التحقق من الحقائق البشرية

لطالما كان التحقق من الحقائق البشرية قضية خلافية في مناخ سياسي مستقطب، خاصة في الولايات المتحدة، حيث يجادل المناصرون المحافظون بأنه يقمع حرية التعبير ويراقب المحتوى اليميني - وهو ادعاء ينفيه مدققو الحقائق المحترفون بشدة. تتعاون وكالة فرانس برس حاليًا مع برنامج التحقق من الحقائق في Facebook بـ 26 لغة، بما في ذلك في آسيا وأمريكا اللاتينية والاتحاد الأوروبي.

التأثير السياسي وروبوتات الدردشة التي تعمل بالذكاء الاصطناعي

تثير جودة ودقة روبوتات الدردشة التي تعمل بالذكاء الاصطناعي، والتي تختلف تبعًا لطريقة تدريبها وبرمجتها، مخاوف من احتمال تأثر مخرجاتها أو التحكم فيها سياسيًا. في الآونة الأخيرة، ألقت xAI التابعة لماسك باللوم على "تعديل غير مصرح به" لـ Grok في إنشاء منشورات غير مرغوب فيها تذكر "الإبادة الجماعية للبيض" في جنوب إفريقيا. عندما سأل ديفيد كاسويل، خبير الذكاء الاصطناعي، Grok عن هوية الشخص الذي ربما قام بتعديل مطالبات نظامه، أدرج روبوت الدردشة ماسك على أنه الجاني "الأكثر احتمالاً".

ماسك هو ملياردير ولد في جنوب إفريقيا ومؤيد للرئيس دونالد ترامب. وقد سبق له أن نشر مزاعم لا أساس لها من الصحة تفيد بأن قادة جنوب إفريقيا "يدفعون علنًا من أجل إبادة جماعية للبيض".

المخاوف بشأن معالجة روبوتات الدردشة التي تعمل بالذكاء الاصطناعي للقضايا الحساسة

تقول أنجي هولان، مديرة الشبكة الدولية للتحقق من الحقائق: "لقد رأينا أنه يمكن للمساعدين الذين يعملون بالذكاء الاصطناعي أن يختلقوا نتائج أو يعطوا إجابات متحيزة بعد أن قام المبرمجون البشريون بتغيير التعليمات على وجه التحديد. أنا قلقة بشكل خاص بشأن كيفية تعامل Grok مع طلبات تتعلق بأمور حساسة للغاية بعد تلقي تعليمات لتقديم إجابات مفوضة مسبقًا."

أهمية ضمان دقة الذكاء الاصطناعي

يشكل الانتشار المتزايد لروبوتات الدردشة التي تعمل بالذكاء الاصطناعي تحديًا كبيرًا لنشر المعلومات. على الرغم من أنها توفر طريقة سريعة ومريحة للوصول إلى المعلومات، إلا أنها عرضة أيضًا لارتكاب الأخطاء ونشر المعلومات الكاذبة. مع اعتماد المستخدمين بشكل متزايد على هذه الأدوات للتحقق من الحقائق، يصبح ضمان دقتها وموثوقيتها أمرًا بالغ الأهمية.

يجب على شركات التكنولوجيا ومنظمات التحقق من الحقائق والباحثين العمل معًا لتحسين جودة وموثوقية روبوتات الدردشة التي تعمل بالذكاء الاصطناعي. ويشمل ذلك تنفيذ بروتوكولات تدريب صارمة، والاستفادة من مدققي الحقائق البشريين للتحقق من المعلومات التي يتم إنشاؤها بواسطة الذكاء الاصطناعي، وتطوير آليات للكشف عن المعلومات الكاذبة والقضاء عليها.

مستقبل واعد

مع استمرار تطور تكنولوجيا الذكاء الاصطناعي، ستلعب روبوتات الدردشة التي تعمل بالذكاء الاصطناعي بلا شك دورًا متزايد الأهمية في الطريقة التي نصل بها إلى المعلومات ونستهلكها. ومع ذلك، من المهم التعامل مع هذه الأدوات بشكل نقدي وإدراك محدودياتها. من خلال اتخاذ خطوات لضمان دقة وموثوقية روبوتات الدردشة التي تعمل بالذكاء الاصطناعي، يمكننا تسخير إمكاناتها مع تخفيف المخاطر المرتبطة بنشر المعلومات الكاذبة.

التحيزات في أدوات الذكاء الاصطناعي

يمكن أن توجد تحيزات في أدوات الذكاء الاصطناعي، سواء في البيانات التي يتم تدريبها عليها أو في الطريقة التي تتم برمجتها بها. يمكن أن يؤدي هذا التحيز إلى نتائج غير دقيقة أو مضللة. على سبيل المثال، يوضح إدراج Grok لنظرية المؤامرة اليمينية المتطرفة "الإبادة الجماعية للبيض" في استعلامات غير ذات صلة كيف يمكن لأنظمة الذكاء الاصطناعي أن تنشر أيديولوجيات ضارة.

يمكن أن يكون التحيز في أدوات الذكاء الاصطناعي ناتجًا عن عدد من العوامل، بما في ذلك:

  • التحيز في بيانات التدريب: تتعلم أنظمة الذكاء الاصطناعي من خلال مجموعات بيانات التدريب. إذا كانت مجموعات البيانات هذه تحتوي على تحيزات، فستتعلم أنظمة الذكاء الاصطناعي هذه التحيزات أيضًا. على سبيل المثال، إذا تم تدريب نظام الذكاء الاصطناعي على مقالات مكتوبة بشكل أساسي للرجال، فقد يصبح متحيزًا ضد النساء.

  • التحيز في الخوارزميات: يمكن أن تحتوي الخوارزميات المستخدمة لبناء أنظمة الذكاء الاصطناعي أيضًا على تحيزات. على سبيل المثال، إذا تم تصميم خوارزمية لإعطاء الأولوية للإجابات من مجموعات معينة، فقد تمارس التمييز ضد مجموعات أخرى.

  • التحيز الناتج عن التدخل البشري: حتى إذا تم تدريب نظام الذكاء الاصطناعي على بيانات غير متحيزة، فإن التدخل البشري يمكن أن يؤدي إلى التحيز. على سبيل المثال، إذا تم توجيه المبرمجين البشريين لتقديم إجابات مفوضة مسبقًا عند الإجابة على أسئلة معينة، فقد يؤدي ذلك إلى التحيز.

من المهم معالجة التحيز في أدوات الذكاء الاصطناعي لعدد من الأسباب، بما في ذلك:

  • الإنصاف: إذا كانت أنظمة الذكاء الاصطناعي تحتوي على تحيزات، فقد تكون غير عادلة تجاه مجموعات معينة. على سبيل المثال، إذا تم استخدام نظام الذكاء الاصطناعي في التوظيف، فقد يكون متحيزًا ضد المجموعات المحرومة.

  • الدقة: إذا كانت أنظمة الذكاء الاصطناعي تحتوي على تحيزات، فقد تفشل في تقديم معلومات دقيقة. على سبيل المثال، إذا تم استخدام نظام الذكاء الاصطناعي لتقديم المشورة الطبية، فقد يقدم مشورة غير صحيحة أو مضللة.

  • الثقة: إذا كان الناس لا يثقون في أن أنظمة الذكاء الاصطناعي عادلة ودقيقة، فمن غير المرجح أن يستخدموها.

تتطلب معالجة التحيز في أدوات الذكاء الاصطناعي اتباع نهج متعدد الأوجه، بما في ذلك:

  • جمع بيانات غير متحيزة: من المهم التأكد من أن مجموعات البيانات المستخدمة لتدريب أنظمة الذكاء الاصطناعي غير متحيزة. قد يتطلب ذلك جهدًا كبيرًا، حيث قد يكون من الصعب العثور على التحيزات في البيانات وإزالتها.

  • تطوير خوارزميات غير منحازة: يجب أن تكون الخوارزميات المستخدمة لبناء أنظمة الذكاء الاصطناعي غير منحازة. قد يتطلب ذلك استخدام تقنيات تعلم آلي جديدة لبناء خوارزميات أقل عرضة للتحيز.

  • التدخل البشري: يمكن استخدام التدخل البشري لتصحيح التحيزات في أنظمة الذكاء الاصطناعي. على سبيل المثال، يمكن للمبرمجين البشريين مراجعة الإجابات التي تم إنشاؤها بواسطة أنظمة الذكاء الاصطناعي وتصحيح أي تحيزات يتم اكتشافها.

  • الشفافية: من المهم أن يكون مستخدمو أنظمة الذكاء الاصطناعي على دراية بالتحيزات التي قد تكون موجودة في النظام. يمكن تحقيق ذلك من خلال توفير معلومات حول البيانات التي تم تدريب نظام الذكاء الاصطناعي عليها والخوارزميات المستخدمة لبنائه.

تعد معالجة التحيز في أدوات الذكاء الاصطناعي تحديًا مستمرًا، ولكنها ضرورية لضمان أن تكون هذه الأدوات عادلة ودقيقة وجديرة بالثقة.

حدود التحقق من الحقائق بواسطة الذكاء الاصطناعي

في حين أن أدوات التحقق من الحقائق بواسطة الذكاء الاصطناعي قد حققت تقدمًا في تحديد المعلومات الخاطئة، إلا أنها لا تزال تعاني من قيود من حيث القدرة والفعالية. تنبع هذه القيود من عدة عوامل:

  • فهم السياق: تواجه أنظمة الذكاء الاصطناعي صعوبة كبيرة في فهم السياقات المعقدة والفروق الدقيقة التي تعتبر حاسمة للتحقق الدقيق من الحقائق. على سبيل المثال، قد لا يتمكن نظام الذكاء الاصطناعي من التمييز بين السخرية أو الفكاهة والبيانات الواقعية.

  • اكتشاف المعلومات الكاذبة الدقيقة: قد يكون من الصعب على أنظمة الذكاء الاصطناعي الكشف عن المعلومات الكاذبة الدقيقة، مثل الحقائق التي يتم إخراجها من سياقها أو الإبلاغ عنها بشكل انتقائي.

  • الافتقار إلى الخبرة المتخصصة: غالبًا ما تفتقر أنظمة الذكاء الاصطناعي إلى الخبرة المتخصصة اللازمة للتحقق من الحقائق حول مواضيع معينة. على سبيل المثال، قد لا يكون لدى نظام الذكاء الاصطناعي معرفة طبية كافية للتحقق بدقة من الادعاءات المتعلقة بالصحة.

  • التلاعب العدائي: يقوم ناشرو المعلومات الكاذبة باستمرار بتطوير طرق جديدة للتلاعب بأنظمة التحقق من الحقائق والتحايل عليها. يجب تحديث أنظمة الذكاء الاصطناعي وتحسينها باستمرار لمواكبة هذه التكتيكات الجديدة.

  • الحواجز اللغوية: قد لا تتمكن أدوات التحقق من الحقائق بواسطة الذكاء الاصطناعي من معالجة المعلومات الخاطئة بلغات مختلفة بشكل فعال. يمثل ترجمة وفهم الفروق الدقيقة في اللغات المختلفة تحديًا ويتطلب معرفة لغوية متخصصة.

  • خطر المعلومات الخاطئة: يمكن أن ترتكب أنظمة التحقق من الحقائق بواسطة الذكاء الاصطناعي أخطاء، مما يؤدي إلى تصنيف معلومات دقيقة على أنها معلومات كاذبة. يمكن أن يكون لهذه المعلومات الخاطئة عواقب وخيمة، مثل الرقابة على المحتوى المشروع أو الإضرار بسمعة الأفراد أو المنظمات.

للتخفيف من قيود التحقق من الحقائق بواسطة الذكاء الاصطناعي، من الضروري الجمع بين الخبرة البشرية وأدوات الذكاء الاصطناعي. يمكن لمدققي الحقائق البشريين تقديم السياق والخبرة المتخصصة والتفكير النقدي، والتي يصعب تكرارها بواسطة الأنظمة الآلية. بالإضافة إلى ذلك، تعتبر الشفافية والتحسين المستمر أمرًا بالغ الأهمية لضمان فعالية وموثوقية أنظمة التحقق من الحقائق بواسطة الذكاء الاصطناعي.

استراتيجيات للتخفيف من المخاطر وتحسين التحقق من الحقائق بواسطة الذكاء الاصطناعي

يتطلب التخفيف من المخاطر وتحسين دقة وموثوقية التحقق من الحقائق بواسطة الذكاء الاصطناعي اتباع نهج متعدد الأوجه يشمل التحسينات التكنولوجية والإشراف البشري والاعتبارات الأخلاقية. فيما يلي بعض الاستراتيجيات الرئيسية:

  • تحسين بيانات التدريب: تحسين بيانات التدريب المستخدمة لتدريب نماذج الذكاء الاصطناعي من خلال دمج مجموعة متنوعة وشاملة من مصادر المعلومات الحقيقية. التأكد من أن البيانات غير متحيزة وحديثة وتغطي مجموعة واسعة من المواضيع ووجهات النظر.

  • دمج الخبراء البشريين: سد أوجه القصور في الذكاء الاصطناعي من خلال دمج مدققي الحقائق البشريين في عملية التحقق من الحقائق بواسطة الذكاء الاصطناعي. يمكن للخبراء البشريين تقديم السياق والتفكير النقدي والخبرة المتخصصة، والتي يصعب تكرارها بواسطة الأنظمة الآلية.

  • تطوير مناهج هجينة: تطوير مناهج هجينة تجمع بين تقنيات الذكاء الاصطناعي والإشراف البشري. يمكن استخدام الذكاء الاصطناعي لتحديد المعلومات الخاطئة المحتملة، بينما يمكن لمدققي الحقائق البشريين مراجعة النتائج والتحقق منها.

  • تنفيذ عمليات شفافة: إنشاء عمليات وأساليب شفافة للتحقق من الحقائق بحيث يفهم المستخدمون كيفية الوصول إلى الاستنتاجات وتقييم الدقة. توفير معلومات حول مصادر البيانات والخوارزميات والمشاركة البشرية.

  • تعزيز الوعي الإعلامي: تعزيز الوعي الإعلامي من خلال البرامج التعليمية وحملات التوعية لمساعدة الأفراد على تقييم المعلومات بشكل نقدي وتحديد المعلومات الخاطئة واتخاذ قرارات مستنيرة.

  • تشجيع التعاون بين الصناعات: تشجيع التعاون بين شركات التكنولوجيا ومنظمات التحقق من الحقائق والباحثين وواضعي السياسات لتبادل المعرفة وأفضل الممارسات والموارد. العمل معًا لمواجهة التحديات والفرص في التحقق من الحقائق بواسطة الذكاء الاصطناعي.

  • معالجة الحواجز اللغوية: تطوير أدوات التحقق من الحقائق بواسطة الذكاء الاصطناعي التي يمكنها معالجة المعلومات الخاطئة بلغات مختلفة بشكل فعال. الاستثمار في الترجمة الآلية وتدريب نماذج متخصصة لكل لغة.

  • التقييم المستمر والتحسين: تقييم أداء أنظمة التحقق من الحقائق بواسطة الذكاء الاصطناعي باستمرار وتحديد مجالات التحسين وتحسين الخوارزميات. إجراء عمليات تدقيق واختبار منتظمة لضمان الدقة والموثوقية.

  • وضع مبادئ توجيهية أخلاقية: وضع مبادئ توجيهية أخلاقية لتطوير ونشر التحقق من الحقائق بواسطة الذكاء الاصطناعي، ومعالجة قضايا مثل التحيز والشفافية والمساءلة واحترام حقوق الإنسان. التأكد من أن أنظمة التحقق من الحقائق بواسطة الذكاء الاصطناعي تستخدم بطريقة عادلة ونزيهة ومسؤولة.

من خلال تنفيذ هذه الاستراتيجيات، يمكننا تحسين دقة وموثوقية التحقق من الحقائق بواسطة الذكاء الاصطناعي، والتخفيف من المخاطر، وزيادة إمكاناته إلى أقصى حد لمكافحة المعلومات الخاطئة.

دور الوعي الإعلامي والتفكير النقدي

نظرًا لوجود كمية هائلة من المعلومات عبر الإنترنت واحتمال قيام روبوتات الدردشة التي تعمل بالذكاء الاصطناعي بنشر معلومات غير دقيقة، فإن تعزيز الوعي الإعلامي والتفكير النقدي أمر بالغ الأهمية. يمكّن الوعي الإعلامي الأفراد من الوصول إلى المعلومات وتقييمها واستخدامها بفعالية. يمكّن التفكير النقدي الأفراد من تحليل وتفسير وإصدار أحكام مستنيرة.

فيما يلي المهارات الأساسية للوعي الإعلامي والتفكير النقدي:

  • تحديد المصادر الموثوقة: تقييم موثوقية مصادر المعلومات ومصداقيتها وتحيزها. ابحث عن مصادر المعلومات التي تتمتع بالخبرة والسياسات الشفافة ودعم الأدلة بالحقائق.

  • التحقق من المعلومات: التحقق المرجعي من المعلومات من خلال الرجوع إلى مصادر معلومات موثوقة متعددة. كن حذرًا من الادعاءات التي لم يتم التحقق منها ونظريات المؤامرة والعناوين الرئيسية المثيرة.

  • تحديد التحيز: كن على دراية بأن جميع مصادر المعلومات من المحتمل أن تحتوي على تحيزات. تقييم تحيز أو جدول أعمال أو ميول سياسية مؤلف أو مؤسسة مصدر المعلومات.

  • تحليل الحجج: تقييم الأدلة والتفكير المقدمين من قبل مصدر المعلومات. ابحث عن المغالطات المنطقية والتقارير الانتقائية والطعون العاطفية.

  • النظر في وجهات نظر مختلفة: ابحث عن وجهات نظر ووجهات نظر مختلفة حول قضية ما. شارك في محادثات مع أشخاص يحملون وجهات نظر مختلفة وفكر في حجج مختلفة.

  • حافظ على عقل متفتح: كن على استعداد لتغيير رأيك بشأن معلومات أو أدلة جديدة. تجنب التحيز التأكيدي، وهو البحث فقط عن المعلومات التي تؤكد المعتقدات الحالية.

يمكن تحقيق تعزيز الوعي الإعلامي والتفكير النقدي من خلال جهود مختلفة، مثل:

  • البرامج التعليمية: تقديم البرامج التعليمية حول الوعي الإعلامي ومهارات التفكير النقدي في المدارس والجامعات والمنظمات المجتمعية.

  • حملات الوعي الإعلامي: إطلاق إعلانات الخدمة العامة والموارد عبر الإنترنت وورش عمل حول الوعي الإعلامي لزيادة الوعي وتعزيز التفكير النقدي.

  • تدريب المعلمين: تزويد المعلمين بالتدريب حول كيفية تدريس مهارات الوعي الإعلامي والتفكير النقدي.

  • مشاركة الوالدين: تشجيع الوالدين على المشاركة في عادات استهلاك الوسائط لأطفالهم ومناقشة دقة وموثوقية المعلومات عبر الإنترنت معهم.

من خلال تعزيز الوعي الإعلامي والتفكير النقدي، يمكننا تمكين الأفراد من اتخاذ قرارات مستنيرة في العصر الرقمي الذي يكتظ بالمعلومات، وتجنب المعلومات الخاطئة، والمشاركة بنشاط كمواطنين.