اطلاعات نادرست در بررسی واقعیت هوش مصنوعی

در جریان درگیری کوتاه مدت بین هند و پاکستان، با افزایش اطلاعات غلط، کاربران رسانه های اجتماعی شروع به تکیه بر ربات های گفتگو (chatbot) مبتنی بر هوش مصنوعی (AI) برای تایید اطلاعات کردند. با این حال، این ربات های گفتگو اطلاعات نادرست بیشتری را ارائه دادند که بر غیرقابل اعتماد بودن آنها به عنوان ابزار بررسی اعتبار تاکید می کند. از آنجایی که پلتفرم های بزرگ فناوری به طور پیوسته تعداد بازرسان حقایق انسانی را کاهش می دهند، کاربران به طور فزاینده ای به ربات های گفتگو مجهز به هوش مصنوعی مانند Grok (متعلق به xAI)، ChatGPT (متعلق به OpenAI) و Gemini (متعلق به Google) به عنوان منابع قابل اعتماد اطلاعات متکی هستند.

ظهور ربات های گفتگو هوش مصنوعی در بررسی واقعیت

در پلتفرم X (سابقاً Twitter) متعلق به ایلان ماسک (Elon Musk)، پرسش «Grok، آیا این درست است؟» به روشی رایج برای کاربران تبدیل شده است. Grok، دستیار هوش مصنوعی تعبیه شده در پلتفرم X، منعکس کننده روند رو به رشد کاربران در جستجوی رد فوری ادعاها در رسانه های اجتماعی است. با این حال، پاسخ های این ربات های گفتگو مجهز به هوش مصنوعی اغلب با اطلاعات نادرست آمیخته است.

Grok اخیراً به دلیل وارد کردن نظریه توطئه راست افراطی «نسل کشی سفید» در پرسش های نامربوط، مورد توجه ویژه قرار گرفته است. Grok به اشتباه قطعه ویدیویی قدیمی را از فرودگاه خارطوم سودان به عنوان حمله موشکی به پایگاه نیروی هوایی نورخان پاکستان در طول درگیری هند و پاکستان شناسایی کرد. علاوه بر این، یک ساختمان در حال سوختن در نپال به اشتباه به عنوان «احتمالاً» نشان دادن پاسخ نظامی پاکستان به حملات هند شناسایی شد.

محدودیت های Fact-Checking مجهز به هوش مصنوعی

McKenzie Sadeghi، محقق سازمان نظارت بر اطلاعات NewsGuard، به خبرگزاری فرانسه گفت: «از آنجایی که X و سایر شرکت‌های بزرگ فناوری سرمایه‌گذاری در بازرسان حقایق انسانی را کاهش داده‌اند، افراد بیشتری به Grok به عنوان بازرس حقایق متکی هستند.» او هشدار داد: «تحقیقات ما بارها نشان داده است که ربات‌های گفتگو مجهز به هوش مصنوعی منبع اطلاعاتی قابل اعتمادی برای اخبار و اطلاعات نیستند، به ویژه در زمینه اخبار فوری».

تحقیقات NewsGuard نشان داد که 10 ربات گفتگوی پیشرو، از جمله Grok، به راحتی اطلاعات نادرست را بازتولید می‌کنند، از جمله روایت‌های گمراه‌کننده پروپاگاندای روسیه و ادعاهای نادرست یا گمراه‌کننده مربوط به انتخابات اخیر استرالیا. مرکز Tow برای روزنامه‌نگاری دیجیتال دانشگاه کلمبیا در مطالعه‌ای که اخیراً بر روی هشت ابزار جستجوی هوش مصنوعی انجام داد، دریافت که ربات‌های گفتگو «اغلب در رد پاسخگویی به سؤالاتی که نمی‌توانند به دقت به آنها پاسخ دهند، مشکل دارند و در عوض پاسخ‌های نادرست یا گمانه‌زنی ارائه می‌دهند».

بازرسان حقایق خبرگزاری فرانسه در اروگوئه از Gemini در مورد یک تصویر تولید شده توسط هوش مصنوعی از یک زن سؤال کردند. Gemini نه تنها صحت تصویر را تأیید کرد، بلکه اطلاعات دقیقی در مورد هویت زن و محل احتمالی گرفتن عکس ساخت.

Grok اخیراً ویدیویی را که ادعا می شد یک مار پیتون غول پیکر در حال شنا در رودخانه آمازون است را به عنوان «واقعی» علامت گذاری کرد و حتی برای حمایت از ادعای نادرست خود به یک هیئت اعزامی علمی قانع کننده استناد کرد. در واقع، این ویدیو توسط هوش مصنوعی تولید شده بود، و بازرسان حقایق خبرگزاری فرانسه در آمریکای لاتین گزارش دادند که بسیاری از کاربران به ارزیابی Grok به عنوان مدرکی دال بر واقعی بودن ویدیو اشاره می کنند.

نگرانی ها در مورد Fact-Checking مجهز به هوش مصنوعی

این یافته‌ها نگرانی‌هایی را ایجاد می‌کند، زیرا نظرسنجی‌ها نشان می‌دهد که تعداد فزاینده‌ای از کاربران آنلاین برای جمع‌آوری و تأیید اطلاعات از موتورهای جستجوی سنتی به ربات‌های گفتگو مجهز به هوش مصنوعی روی می‌آورند. در همین حال، Meta اوایل سال جاری اعلام کرد که برنامه بررسی حقایق شخص ثالث خود را در ایالات متحده متوقف خواهد کرد و در عوض وظایف رفع ابهام را به کاربران عادی واگذار می کند و از مدلی به نام «یادداشت های جامعه» استفاده می کند که توسط پلتفرم X تبلیغ می شود. با این حال، محققان به طور مکرر در مورد اثربخشی «یادداشت های انجمن» در مبارزه با اطلاعات نادرست سؤال کرده اند.

بررسی حقایق انسانی برای مدت طولانی یک نکته دردسرساز در فضای سیاسی دوقطبی بوده است، به ویژه در ایالات متحده، جایی که محافظه کاران استدلال می کنند که آزادی بیان را سرکوب می کند و محتوای جناح راست را سانسور می کند، ادعایی که توسط بازرسان حقایق حرفه ای به شدت مورد انتقاد قرار گرفته است.

خبرگزاری فرانسه در حال حاضر با برنامه بررسی حقایق فیس بوک به 26 زبان، از جمله در آسیا، آمریکای لاتین و اتحادیه اروپا، همکاری می کند.

کیفیت و دقت ربات‌های گفتگوی مبتنی بر هوش مصنوعی ممکن است بسته به نحوه آموزش و برنامه‌ریزی آنها متفاوت باشد، و این نگرانی‌ها را در مورد اینکه خروجی آنها ممکن است تحت تأثیر سیاسی یا کنترل قرار گیرد، ایجاد می‌کند.

xAI متعلق به ماسک اخیراً تولید انتساب نشدهGroks را به پست هایی که از «نسل کشی سفید» در آفریقای جنوبی نام می برند را به «اصلاحات غیرمجاز» نسبت داد. هنگامی که David Caswell، متخصص هوش مصنوعی، از Grok پرسید که چه کسی ممکن است اعلان های سیستمی خود را اصلاح کرده باشد، ربات گفتگو ماسک را به عنوان «محتمل ترین» مقصر معرفی کرد.

ماسک یک میلیاردر متولد آفریقای جنوبی و حامی دونالد ترامپ، رئیس جمهور ایالات متحده است. او قبلاً ادعاهای بی اساسی مبنی بر اینکه رهبران آفریقای جنوبی «آشکارا به دنبال نسل کشی سفیدپوستان هستند» را منتشر کرده بود.

Angie Holan، مدیر شبکه بین‌المللی بررسی حقایق، به خبرگزاری فرانسه گفت: «ما دیده‌ایم که دستیارهای هوش مصنوعی پس از اینکه کدنویس‌های انسانی دستورالعمل‌های خود را به طور خاص تغییر دادند، می‌توانند نتایج را جعل کنند یا پاسخ‌های مغرضانه ارائه دهند». «من به ویژه نگرانم که Grok پس از دریافت دستورالعملی برای ارائه پاسخ‌های از پیش مجاز، چگونه درخواست‌ها در مورد موضوعات بسیار حساس را مدیریت می‌کند.»

خطرات ربات های گفتگو مجهز به هوش مصنوعی در حوزه اطلاعات

کاربرد رو به رشد ربات های گفتگو مجهز به هوش مصنوعی در ارائه اطلاعات نگرانی های جدی را ایجاد می کند که به تأثیر بالقوه گمراه کننده و دستکاری کننده آنها مربوط می شود. در حالی که این فناوری ها دارای مزایایی در دسترسی سریع به اطلاعات و ساده سازی تحقیقات هستند، محدودیت ها و انحرافات ذاتی آنها می تواند به طور ناخواسته یا عمدی اطلاعات نادرست یا تبلیغات را گسترش دهد.

محدودیت های ذاتی ربات های گفتگو مجهز به هوش مصنوعی

ربات‌های گفتگو (chatbot) مجهز به هوش مصنوعی با تجزیه و تحلیل مقادیر زیادی از داده‌های متنی یاد می‌گیرند، اما فاقد توانایی‌های تفکر انتقادی انسان هستند. این بدان معناست که آن‌ها ممکن است الگوهایی را از داده‌ها استخراج کنند و پاسخ‌هایی به ظاهر منطقی تولید کنند، اما معنا یا زمینه اساسی را به‌طور کامل درک نمی‌کنند. این فقدان دانش می تواند منجر به تولید اطلاعات نادرست، ناقص یا گمراه کننده شود.

علاوه بر این، داده‌های آموزشی ربات‌های گفتگوی مجهز به هوش مصنوعی ممکن است حاوی انحرافاتی باشد که در پاسخ‌های تولید شده منعکس می‌شود. به عنوان مثال، اگر داده های آموزشی در درجه اول از یک منبع یا دیدگاه خاص به دست آمده باشند، ربات گفتگو ممکن است اولویت را برای آن منبع یا دیدگاه نشان دهد و اطلاعات مغرضانه را ترویج کند.

خطرات ناشی از ربات های گفتگو مجهز به هوش مصنوعی

با تکیه بیشتر افراد به ربات های گفتگو مجهز به هوش مصنوعی برای کسب اطلاعات، خطر گسترش اطلاعات نادرست در حال افزایش است. اگر ربات گفتگو اطلاعات نادرست یا گمراه کننده تولید کند، کاربران ممکن است ناآگاهانه این اطلاعات را بپذیرند و منتشر کنند که منجر به گسترش باورهای کاذب می شود.

علاوه بر این، ربات های گفتگو مجهز به هوش مصنوعی می توانند برای اهداف مخرب، مانند انتشار تبلیغات یا دستکاری افکار عمومی، مورد استفاده قرار گیرند. با دقت طراحی داده های آموزشی یا تغییر الگوریتم ها، بازیگران مخرب می توانند ربات های گفتگو را دستکاری کنند تا انواع خاصی از پاسخ ها را تولید کنند و در نتیجه بر باورها و رفتار کاربران تأثیر بگذارند.

چگونه می توان خطرات را کاهش داد

به منظور کاهش خطرات مرتبط با ربات های گفتگو، مجموعه ای از اقدامات لازم است. در وهله اول، توسعه دهندگان باید تلاش کنند تا اطمینان حاصل کنند که داده های آموزشی برای ربات های گفتگو مجهز به هوش مصنوعی تا حد امکان کامل و بدون تبعیض است. این ممکن است شامل وارد کردن نمونه های متنوعی از داده ها از منابع و دیدگاه های مختلف برای کاهش تأثیر تبعیض باشد.

در مرحله دوم، ربات های گفتگو مجهز به هوش مصنوعی نیاز به آزمایش های دقیق و ارزیابی برای شناسایی و تصحیح هرگونه تمایل به نادرستی یا تبعیض دارند. این ممکن است نیاز به تأیید دستی پاسخ های تولید شده توسط ربات گفتگو و استفاده از معیارهای مختلف برای ارزیابی صحت و بی طرفی آن داشته باشد.

در مرحله سوم، کاربران باید تفکر انتقادی داشته باشند و کورکورانه به اطلاعات ارائه شده توسط ربات های گفتگو مجهز به هوش مصنوعی اعتماد نکنند. کاربران باید همیشه اطلاعات را از منابع مختلف مقایسه کنند و از تبعیض های احتمالی ربات گفتگو آگاه باشند.

نقش پلتفرم های فناوری و جوامع (Role of Technology Platforms and Communities)

پلتفرم های فناوری و جوامع نقش مهمی در تنظیم و نظارت بر محتوای تولید شده توسط ربات های گفتگو مجهز به هوش مصنوعی ایفا می کنند. پلتفرم ها می توانند استراتژی هایی را برای شناسایی و حذف اطلاعات نادرست یا تبلیغات اجرا کنند، و می توانند با سازمان های بررسی کننده حقایق برای تأیید صحت پاسخ های تولید شده توسط ربات های گفتگو همکاری کنند. علاوه بر این، جوامع می توانند با ترویج بحث در مورد محدودیت ها و تبعیض های ربات های گفتگو مجهز به هوش مصنوعی، به افزایش آگاهی کاربر کمک کنند و کاربران را به تفکر انتقادی تشویق کنند.

نتیجه گیری

ربات های گفتگو مجهز به هوش مصنوعی ابزار مفیدی هستند، اما محدودیت ها و خطرات ذاتی نیز دارند. به منظور اطمینان از اینکه این فناوری ها به طور مسئولانه مورد استفاده قرار می گیرند و گسترش اطلاعات نادرست و دستکاری کاهش می یابد، هم توسعه دهندگان، هم تنظیم کننده ها و هم کاربران باید هوشیار باشند. با انجام اقدامات لازم، می توانیم مزایای ربات های گفتگو مجهز به هوش مصنوعی را به حداکثر برسانیم و در عین حال خطرات بالقوه آنها را به حداقل برسانیم.