هوش مصنوعی (AI) و چتباتها، ابزارهایی قدرتمند در دنیای امروز ما هستند. با این حال، این ابزارها همیشه دقیق و قابل اعتماد نیستند، و این موضوع میتواند نگرانیهایی را ایجاد کند، به ویژه هنگامی که از آنها برای بررسی صحت اطلاعات و اخبار استفاده میشود. در واقع، کیفیت و دقت چتباتهای هوش مصنوعی، بسته به نحوه آموزش و برنامهریزی آنها، بسیار متفاوت است. این امر باعث ایجاد نگرانیهایی در مورد احتمال نفوذ سیاسی و یا کنترل آنها میشود. به خصوص در شرایطی که پلتفرمهای فناوری در حال کاهش تعداد بازرسان حقایق انسانی هستند، کاربران بیشتر به چتباتهای هوش مصنوعی برای یافتن اطلاعات قابل اعتماد روی میآورند. با این حال، همانطور که آشکار شده است، این چتباتها نیز خود مستعد تولید اطلاعات نادرست هستند.
اتکا به هوش مصنوعی برای بررسی حقایق در طول درگیریها و نواقص آن
در یک مناقشه چهار روزه بین هند و پاکستان، کاربران رسانههای اجتماعی به چتباتهای هوش مصنوعی برای تأیید اطلاعات روی آوردند. با کمال تعجب، آنچه آنها با آن مواجه شدند، اطلاعات غلط بیشتر بود. این امر بر غیرقابل اعتماد بودن این چتباتها، به عنوان ابزاری برای بررسی حقایق تأکید میکند. با کاهش تدریجی تعداد بازرسان حقایق انسانی توسط پلتفرمهای فناوری، کاربران به طور فزایندهای به چتباتهای مبتنی بر هوش مصنوعی، از جمله Grok از xAI، ChatGPT از OpenAI و Gemini از Google، برای یافتن اطلاعات قابل اعتماد وابسته شدهاند. اما مشخص شده است، پاسخهایی که این چتباتهای هوش مصنوعی ارائه میدهند، اغلب مملو از اطلاعات غلط است.
یک پرسش رایج که در پلتفرم X (توییتر سابق)، متعلق به ایلان ماسک، به وجود آمده است این است: «Grok، آیا این درست است؟». یک دستیار هوش مصنوعی در این پلتفرم، به صورت داخلی طراحی شده است، که نشاندهنده گرایش فزاینده به دنبال کردن تکذیب فوری در رسانههای اجتماعی است. اما متأسفانه، پاسخهایی که این چتباتهای هوش مصنوعی ارائه میدهند، اغلب با اطلاعات نادرست آمیخته شدهاند.
نمونههایی از انتشار اطلاعات نادرست توسط چتباتهای هوش مصنوعی
Grok در حال حاضر، تحت بررسیهای جدید قرار دارد. گزارشهایی وجود دارد مبنی بر این که این چتبات تئوری توطئه راست افراطی "نسلکشی سفیدپوستان" را در پرسشهای نامربوط وارد میکند. این چتبات به اشتباه، یک قطعه فیلم قدیمی از فرودگاه خارطوم سودان را که در طول درگیریهای هند و پاکستان در سال 2019 فیلمبرداری شده بود، به عنوان "حمله موشکی پایگاه نیروی هوایی نورخان پاکستان" شناسایی کرد. علاوه بر این، یک فیلم نامربوط از آتشسوزی در یک ساختمان در نپال، به اشتباه به عنوان "واکنش احتمالی پاکستان به حملات هند" شناسایی شد.
همچنین به تازگی، Grok فیلمی را که ظاهراً یک آناکوندای غولپیکر در رودخانه آمازون را نشان میداد، "واقعی" برچسب زد. حتی به اعزامهای به ظاهر معتبری اشاره کرد، تا ادعای نادرست خود را تأیید کند. در واقع، این ویدئو با استفاده از هوش مصنوعی تولید شده بود. بازرسان حقیقت خبرگزاری فرانسه (AFP) در آمریکای لاتین خاطرنشان کردند، بسیاری از کاربران ارزیابی Grok را به عنوان مدرکی دال بر واقعی بودن این قطعه فیلم عنوان کردهاند.
کاهش سرمایهگذاری در بازرسان حقیقت
با کاهش سرمایهگذاری در بازرسان حقیقت انسانی توسط X و سایر شرکتهای بزرگ فناوری، اتکا به Grok، به عنوان بازرس حقیقت، افزایش یافته است. مکنزی ساردی، محقق سازمان دیدهبان اخبار NewsGuard، هشدار میدهد: «تحقیقات ما بارها و بارها نشان داده است، چتباتهای هوش مصنوعی منابع اطلاعاتی قابل اعتمادی برای اخبار و اطلاعات نیستند، به خصوص در مورد اخبار فوری».
همچنین، تحقیقات NewsGuard نشان داده است ده چتبات برتر، مستعد تکرار اطلاعات نادرست هستند. این اطلاعات، شامل روایات دروغین روسیه و ادعاهای نادرست و گمراهکننده مرتبط با انتخابات اخیر استرالیا است. مطالعه اخیر مرکز دیجیتال روزنامهنگاری تاو در دانشگاه کلمبیا بر روی هشت ابزار جستجوی هوش مصنوعی نشان داد، چتباتها «اغلب در امتناع از پاسخ دادن به سؤالاتی که نمیتوانند به طور دقیق به آنها پاسخ دهند، ضعیف هستند و در عوض، پاسخهای نادرست یا گمانهزنی ارائه میدهند.»
تلاش هوش مصنوعی برای تأیید تصاویر جعلی و ساخت جزئیات
بازرسان حقیقت خبرگزاری فرانسه (AFP) در اروگوئه، هنگامی که از Gemini در مورد یک تصویر تولید شده توسط هوش مصنوعی از یک زن سؤال کردند، این ابزار نه تنها اصالت تصویر را تأیید کرد، بلکه جزئیاتی در مورد هویت وی و محل احتمالی گرفتن عکس نیز جعل کرد.
چنین یافتههایی نگرانیهایی را ایجاد میکند. با توجه به اینکه بررسیها نشان میدهد، کاربران آنلاین به طور فزایندهای از موتورهای جستجوی سنتی به چتباتهای هوش مصنوعی برای به دست آوردن اطلاعات روی میآورند.
تغییر روش متا در زمینه بررسی حقایق
در اوایل سال جاری، شرکت Meta اعلام کرد، به برنامه بررسی حقایق شخص ثالث خود در ایالات متحده پایان میدهد. این شرکت در عوض، وظیفه افشای اطلاعات نادرست را به کاربران عادی واگذار میکند. این رویکرد از الگوی "یادداشتهای انجمن" که توسط X ترویج شده است، استفاده میکند. با این حال، محققان بارها و بارها، اثربخشی "یادداشتهای انجمن" را در مبارزه با اطلاعات نادرست زیر سؤال بردهاند.
چالشها و اختلافات مربوط به بررسی حقایق انسانی
بازرسی حقایق انسانی مدتهاست که یک جرقه در فضای سیاسی دو قطبی شده، به ویژه در ایالات متحده بوده است. مدافعان محافظهکار ادعا میکنند که این کار آزادی بیان را سرکوب میکند و محتوای جناح راست را سانسور میکند. این در حالی است که بازرسان حقیقت حرفهای این ادعا را قویاً تکذیب میکنند. خبرگزاری فرانسه (AFP) در حال حاضر، در رابطه با برنامه بررسی حقایق فیسبوک، با 26 زبان مختلف همکاری میکند که این همکاری، شامل آسیا، آمریکای لاتین و اتحادیه اروپا میشود.
نفوذ سیاسی و چتباتهای هوش مصنوعی
به دلیل متغیر بودن کیفیت و دقت چتباتهای هوش مصنوعی، بسته به نحوه آموزش و برنامهنویسی آنها، نگرانیهایی ایجاد شده است که خروجی این ابزارها ممکن است، در معرض نفوذ یا کنترل سیاسی قرار گیرند. به تازگی، xAI متعلق به ماسک،، "تغییرات غیرمجاز" را مقصر تولید یک پست غیرمنتظره توسط Grok در مورد "نسلکشی سفیدپوستان" در آفریقای جنوبی دانست. هنگامی که دیوید کسول، کارشناس هوش مصنوعی، از Grok پرسید که چه کسی سیستم اعلان آن را تغییر داده است، این چتبات ماسک را به عنوان "محتملترین" مقصر معرفی کرد.
ماسک، میلیاردر متولد آفریقای جنوبی و حامی دونالد ترامپ، رئیس جمهور سابق ایالات متحده است. او پیش از این، ادعاهای بیاساسی مبنی بر اینکه رهبران آفریقای جنوبی "به طور علنی مشغول ترویج نسلکشی سفیدپوستان هستند" را منتشر کرده بود.
نگرانیها درباره نحوه برخورد چتباتهای هوش مصنوعی با مسائل حساس
آنجی هولان، رئیس شبکه بینالمللی Fact Checking، اظهار داشت: «ما دیدهایم که دستیاران هوش مصنوعی میتوانند، پس از اینکه کدگذاران انسانی به طور خاص دستورالعملها را تغییر دادند، نتایج نادرست ارائه دهند، یا پاسخهای مغرضانه ارائه دهند. من به خصوص نگران این هستم که Grok، پس از دریافت دستورالعمل برای ارائه پاسخهای از پیش تأیید شده، چگونه به درخواستهایی رسیدگی میکند که مسائل بسیار حساسی را در بر میگیرند.»
اهمیت اطمینان از دقت هوش مصنوعی
رواج فزاینده چتباتهای هوش مصنوعی چالشهای مهمی را برای انتشار اطلاعات ایجاد میکند. در حالی که این ابزارها روشی سریع و راحت برای دسترسی به اطلاعات ارائه میدهند، به طور مشابه مستعد خطا هستند و میتوانند اطلاعات نادرست را منتشر کنند. از آنجا که کاربران به طور فزایندهای به این ابزارها برای بررسی حقایق اعتماد میکنند، اطمینان از دقت و قابلیت اطمینان آنها بسیار مهم است.
شرکتهای فناوری، سازمانهای بررسی حقایق و محققان باید با هم همکاری کنند، تا کیفیت و قابلیت اطمینان چتباتهای هوش مصنوعی را بهبود بخشند. این همکاری، شامل اجرای پروتکلهای آموزشی دقیق، استفاده از بازرسان حقیقت انسانی برای تأیید اطلاعات تولید شده توسط هوش مصنوعی و توسعه سازوکارهایی برای تشخیص و ریشهکن کردن اطلاعات نادرست است.
نگاه به آینده
با ادامه توسعه فناوری هوش مصنوعی، چتباتهای هوش مصنوعی بدون شک نقش فزایندهای در نحوه دسترسی و مصرف اطلاعات ایفا میکنند. با این حال، مهم است که با دیدی انتقادی به این ابزارها نزدیک شویم و از محدودیتهای آنها آگاه باشیم. با انجام اقداماتی برای اطمینان از دقت و قابلیت اطمینان چتباتهای هوش مصنوعی، میتوانیم از پتانسیلهای آنها استفاده کنیم و در عین حال، خطرات مرتبط با انتشار اطلاعات نادرست را کاهش دهیم.
سوگیری در ابزارهای هوش مصنوعی
ابزارهای هوش مصنوعی مستعد داشتن سوگیری هستند. این سوگیریها میتواند ناشی از دادههایی باشد که سیستم بر اساس آنها آموزش داده شده است، یا نحوه برنامهنویسی سیستم باشد. این تعصب میتواند منجر به نتایج نادرست یا گمراهکننده شود. به عنوان مثال، اگر به خاطر داشته باشید، Grok نظریه توطئه راست افراطی "نسلکشی سفیدپوستان" را در پرسشهای نامربوط وارد میکند و این موضوع، این استدلال را نشان میدهد که سیستمهای هوش مصنوعی میتوانند، ایدئولوژیهای مضر را انتشار دهند.
سوگیریها در ابزارهای هوش مصنوعی میتواند، ناشی از طیف وسیعی از عوامل باشد:
سوگیری در دادههای آموزشی: سیستمهای هوش مصنوعی با استفاده از مجموعه دادهها یاد میگیرند. اگر این مجموعه دادهها شامل سوگیری باشند، سیستم هوش مصنوعی نیز این تعصبات را یاد خواهد گرفت. برای مثال، اگر یک سیستم هوش مصنوعی بر اساس مجموعهای از مقالات آموزش داده شود که عمدتاً توسط مردان نوشته شدهاند، احتمالاً نسبت به زنان سوگیری نشان خواهد داد.
سوگیری در الگوریتمها: الگوریتمهایی که برای ساخت سیستمهای هوش مصنوعی استفاده میشوند نیز میتوانند حاوی سوگیری باشند. برای مثال، اگر یک الگوریتم طراحی شده باشد، تا به پاسخهای یک گروه خاص اولویت دهد، ممکن است علیه گروههای دیگر تبعیض قائل شود.
سوگیری ناشی از مداخله انسانی: حتی اگر یک سیستم هوش مصنوعی بر اساس دادههای بیطرفانه آموزش داده شود، تعصب میتواند از طریق مداخله انسانی وارد شود. برای مثال، اگر به کدنویسان انسانی دستور داده شود، هنگام پاسخ دادن به سؤالات خاص، پاسخهای از پیش تأیید شده را ارائه دهند، این میتواند تعصب ایجاد کند.
پرداختن به تعصب در ابزارهای هوش مصنوعی به چند دلیل بسیار مهم است:
انصاف: اگر یک سیستم هوش مصنوعی حاوی سوگیری باشد، میتواند برای گروههای خاصی ناعادلانه باشد. برای مثال، اگر از یک سیستم هوش مصنوعی برای استخدام استفاده شود، ممکن است نسبت به گروههای تحت تبعیض سوگیری نشان دهد.
صحت: اگر یک سیستم هوش مصنوعی حاوی سوگیری باشد، ممکن است اطلاعات را به طور دقیق ارائه نکند. برای مثال، اگر از یک سیستم هوش مصنوعی برای ارائه مشاوره پزشکی استفاده شود، ممکن است تو صیههای غیر دقیق یا گمراهکننده ارائه دهد.
اعتماد: اگر مردم باور نداشته باشند، سیستمهای هوش مصنوعی منصفانه و دقیق هستند، احتمالاً از آنها استفاده نخواهند کرد.
پرداختن به تعصب در ابزارهای هوش مصنوعی نیازمند یک رویکرد چند جانبه است:
جمعآوری دادههای بیطرفانه: بسیار مهم است که اطمینان حاصل شود، مجموعهدادههایی که برای آموزش سیستمهای هوش مصنوعی استفاده میشوند، بیطرفانه هستند. این ممکن است، نیازمند تلاش زیادی باشد، چرا که یافتن و حذف تعصب از دادهها میتواند دشوار باشد.
توسعه الگوریتمهای بیطرفانه: الگوریتمهایی که برای ساخت سیستمهای هوش مصنوعی از آنها استفاده میشود، باید بیطرفانه باشند. این ممکن است، نیازمند استفاده از تکنیکهای جدید یادگیری ماشین برای ساخت الگوریتمهایی باشد که کمتر مستعد تعصب هستند.
مداخله انسانی: میتوان از مداخله انسانی برای اصلاح تعصب در سیستمهای هوش مصنوعی استفاده کرد. برای مثال، کدنویسان انسانی میتوانند پاسخهای ایجاد شده توسط سیستم هوش مصنوعی را بررسی کنند و سوگیریهایی را که ممکن است وجود داشته باشند، برطرف کنند.
شفافیت: مهم است که کاربران سیستمهای هوش مصنوعی آگاه باشند، که ممکن است تعصب در سیستمهای هوش مصنوعی وجود داشته باشد. این کار، میتواند با ارائه اطلاعات در مورد دادههایی که سیستم هوش مصنوعی بر اساس آنها آموزش داده شده است و الگوریتمهایی که برای ساخت سیستم استفاده میشوند، انجام شود.
پرداختن به تعصب در ابزارهای هوش مصنوعی یک چالش مداوم است، اما برای اطمینان از اینکه این ابزارها منصفانه، دقیق و قابل اعتماد هستند، بسیار مهم است.
محدودیتهای بررسی حقایق با هوش مصنوعی
اگرچه ابزارهای بررسی حقایق به کمک هوش مصنوعی در شناسایی اطلاعات نادرست پیشرفت کردهاند، اما همچنان محدودیتهایی در قابلیتها و اثربخشی خود دارند. این محدودیتها ناشی از عوامل متعددی است:
درک زمینه: درک زمینههای پیچیده و تفاوتهای ظریف، که برای بررسی دقیق حقایق ضروری هستند، برای سیستمهای هوش مصنوعی چالشبرانگیز است. برای مثال، یک سیستم هوش مصنوعی ممکن است قادر به تشخیص طنز یا شوخی نادقیق از یک عبارت واقعی نباشد.
تشخیص اطلاعات نادرست ظریف: برای سیستمهای هوش مصنوعی، تشخیص اطلاعات نادرست ظریف، مانند نقل گزینشی یا گزارش انتخابی واقعیتها، ممکن است دشوار باشد.
فقدان تخصص در حوزه تخصصی: سیستمهای هوش مصنوعی اغلب فاقد دانش تخصصی در حوزه هستند که برای بررسی حقایق در مورد برخی موضوعات ضروری است. برای مثال، یک سیستم هوش مصنوعی ممکن است دانش پزشکی کافی برای بررسی دقیق ادعاهای مرتبط با سلامت را نداشته باشد.
دستکاری خصمانه: توزیعکنندگان اطلاعات نادرست دائماً روشهای جدیدی برای دستکاری و فرار از سیستمهای بررسی حقایق در حال توسعه هستند. سیستمهای هوش مصنوعی باید به طور مداوم به روز و بهبود یابند، تا از این تاکتیکهای جدید پیشی بگیرند.
موانع زبانی: ابزارهای بررسی حقایق به کمک هوش مصنوعی ممکن است در مقابله مؤثر با اطلاعات نادرست در زبانهای مختلف با مشکل مواجه شوند. ترجمه و درک تفاوتهای ظریف در زبانهای مختلف چالشبرانگیز است و نیازمند دانش زبانی تخصصی است.
خطر مثبتهای کاذب: سیستمهای بررسی حقایق به کمک هوش مصنوعی امکان اشتباه کردن و برچسب زدن اطلاعات دقیق به عنوان نادرست را دارند. این مثبتهای کاذب میتوانند، عواقب جدی داشته باشند، مانند سانسور کردن محتوای قانونی یا صدمه زدن به شهرت افراد یا سازمانها.
به منظور کاهش محدودیتهای بررسی حقایق به کمک هوش مصنوعی، ترکیب تخصص انسانی با ابزارهای هوش مصنوعی ضروری است. بازرسان حقیقت انسانی میتوانند، زمینه، تخصص حوزهای و تفکر انتقادی را ارائه دهند، که سیستمهای خودکار در تلاش برای کپی کردن آنها هستند. علاوه بر این، شفافیت و بهبود مستمر برای اطمینان از اثربخشی و قابلیت اعتماد به سیستمهای بررسی حقایق به کمک هوش مصنوعی بسیار مهم است.
استراتژیهایی برای کاهش خطرات و بهبود بررسی حقایق با هوش مصنوعی
کاهش خطرات بررسی حقایق به کمک هوش مصنوعی و افزایش دقت و قابلیت اعتماد به آن، نیازمند یک رویکرد چند وجهی است که شامل بهبودهای فنی، نظارت انسانی و ملاحظات اخلاقی است. در اینجا استراتژیهای کلیدی وجود دارد:
بهبود دادههای آموزشی: دادههای آموزشی را که برای آموزش مدلهای هوش مصنوعی استفاده میشوند، با ادغام منابع متنوع و جامع اطلاعات واقعی، بهبود بخشید. اطمینان حاصل شود، دادهها بیطرفانه، بهروز و در برگ
یرنده طیف گستردهای از موضوعات و دیدگاهها هستند.ادغام کارشناسان انسانی: با ادغام بازرسان انسانی در فرآیند بررسی حقایق به کمک هوش مصنوعی، بر محدودیتهای هوش مصنوعی غلبه شود. کارشناسان انسانی میتوانند زمینه، تفکر انتقادی و تخصص حوزهای را ارائه دهند، که سیستمهای خودکار در تلاش برای کپی کردن آنها هستند.
توسعه رویکردهای ترکیبی: رویکردهای ترکیبی را ایجاد کنید که فناوریهای هوش مصنوعی را با نظارت انسانی ترکیب میکنند. از هوش مصنوعی میتوان برای شناسایی اطلاعات نادرست احتمالی و از بازرسان حقیقت انسانی برای بررسی و تأیید یافتهها استفاده کرد.
پیادهسازی فرآیندهای شفاف: فرآیندها و روشهای بررسی حقایق شفافی را ایجاد کنید، تا کاربران درک کنند چگونه به نتیجهگیری میرسند و دقت را ارزیابی کنند. اطلاعاتی درباره منابع داده، الگوریتمها و دخ
الت انسانی ارائه دهید.ترویج سواد رسانهای: سواد رسانهای را از طریق برنامههای آموزشی و کمپینهای آگاهیرسانی ترویج کنید، تا به افراد کمک کنید اطلاعات را به طور انتقادی بررسی کنند، اطلاعات نادرست را شناسایی کنند و تصمیمات آگاهانه بگیرند.
تشویق همکاری بین صنعتی: همکاری بین شرکتهای فناوری، سازمانهای بررسی حقایق، محققان و سیاستگذاران را تشویق کنید، تا دانش، بهترین شیوهها و منابع را به اشتراک بگذارند. با هم برای مقابله با چالشها و فرصتهای بررسی حقایق به کمک هوش مصنوعی تلاش کنید.
رسیدگی به موانع زبانی: ابزارهای بررسی حقایق به کمک هوش مصنوعی را توسعه دهید که بتوانند به طور مؤثر با اطلاعات نادرست در زبانهای مختلف مقابله کنند. سرمایهگذاری در ترجمه ماشینی و آموزش مدلهای تخصصی برای هر زبان شود.
ارزیابی و بهبود مستمر: به طور مداوم عملکرد سیستمهای بررسی حقایق به کمک هوش مصنوعی را ارزیابی کنید، حوزههایی که باید بهبود داده شوند را شناسایی کنید و الگوریتمها را بهینه کنید. به طور منظم ممیزیها و آزمونها را انجام دهید، تا از دقت و قابلیت اعتماد اطمینان حاصل شود.
ایجاد دستورالعملهای اخلاقی: دستورالعملهای اخلاقی ایجاد کنید، برای توسعه و استقرار بررسی حقایق به کمک هوش مصنوعی، و به مسائلی مانند تعصب، شفافیت، مسئولیتپذیری و احترام به حقوق بشر رسیدگی کنید. اطمینان حاصل شود، سیستمهای بررسی حقایق به کمک هوش مصنوعی به روشی منصفانه، بیطرفانه و مسئولانه مورد استفاده قرار میگیرند.
با اجرای این استراتژیها، میتوانیم دقت و قابلیت اعتماد به بررسی حقایق به کمک هوش مصنوعی را بهبود بخشیم، خطرات را کاهش دهیم و پتانسیل آن را برای مبارزه با اطلاعات نادرست به حداکثر برسانیم.
نقش سواد اطلاعاتی و تفکر انتقادی
با توجه به حجم عظیم اطلاعات آنلاین و پتانسیل انتشار اطلاعات نادرست توسط چتباتهای هوش مصنوعی، پرورش سواد اطلاعاتی و تفکر انتقادی بسیار مهم است. سواد اطلاعاتی افراد را قادر میسازد، به اطلاعات دسترسی پیدا کنند، آنها را ارزیابی کنند و به طور مؤثر از آنها استفاده کنند. تفکر انتقادی افراد را قادر میسازد، تحلیل کنند، تفسیر کنند و قضاوتهای آگاهانه انجام دهند.
در اینجا مهارتهای ضروری برای سواد اطلاعاتی و تفکر انتقادی وجود دارد:
شناسایی منابع معتبر: منابع اطلاعات را بر اساس قابلیت اعتماد، اعتبار و تعصب ارزیابی کنید. به دنبال منابعی باشید که تخصص، سیاستهای شفاف و شوا
هد برای حمایت از واقعیتها داشته باشند.تأیید اطلاعات: اطلاعات را با ارجاع به چند منبع معتبر، بررسی مجدد کنید. مراقب ادعاهای تأیید نشده، تئوریهای توطئه و تیترهای داغ باشید.
شناسایی تعصب: آگاه باشید، همه منابع اطلاعات به طور بالقوه میتوانند تعصب داشته باشند. تعصب، دستور کار یا تمایلات سیاسی نویسنده یا سازمانی که اطلاعات را ارائه میکند را ارزیابی کنید.
تحلیل استدلالها: شواهد و استدلالهایی که یک منبع اطلاعات ارائه میدهد را ارزیابی کنید. به دنبال مغالطههای منطقی، گزارش انتخابی و توسل به احساسات باشید.
در نظر گرفتن دیدگاههای مختلف: به دنبال دیدگاهها و چشماندازهای مختلف در مورد یک موضوع باشید. با افرادی با دیدگاههای متفاوت درگیر گفتگو شوید و استدلالهای مختلف را در نظر بگیرید.
متحمل باشید: تمایل داشته باشید، دیدگاه خود را در پاسخ به اطلاعات یا شواهد جدید تغییر دهید. از تعصب تأیید، جستجو برای اطلاعاتی که باورهای موجود را تأیید میکنند، دوری کنید.
تقویت سواد اطلاعاتی و تفکر انتقادی میتواند، از طریق تلاشهای مختلف به دست آید، مانند:
برنامههای آموزشی: برنامههای آموزشی برای سواد اطلاعاتی و تفکر انتقادی در مدارس، دانشگاهها و سازمانهای جامعه ارائه دهید.
کمپینهای سواد رسانهای: آگهیهای خدمات عمومی، منابع آنلاین و کارگاههای سواد رسانهای را برای افزایش آگاهی و ترویج تفکر انتقادی راه اندازی کنید.
آموزش معلم: به معلمان آموزش دهید که چگونه مهارتهای سواد اطلاعاتی و تفکر انتقادی را آموزش دهند.
مشارکت والدین: والدین را تشویق کنید، در عادات مصرف رسانهای فرزندان خود مشارکت کنند و با آنها در مورد دقت و قابلیت اعتماد به اطلاعات آنلاین بحث کنند.
با پرورش سواد اطلاعاتی و تفکر انتقادی، میتوانیم افراد را قادر سازیم، تصمیمات آگاهانه ب
گیرند، در عصر امروزی غرق در اطلاعات، از اطلاعات نادرست، خودداری ورزند، و به شهروندان فعال و درگیر تبدیل شوند.