ربات‌های گفتگو و انتشار اطلاعات نادرست روسیه

نفوذ فراگیر دروغ‌های تحت حمایت کرملین

هسته اصلی مشکل در آلودگی عمدی منابع اطلاعات آنلاین نهفته است. با اشباع نتایج جستجو و خزنده‌های وب با دروغ‌های طرفدار کرملین، شبکه‌ای از عوامل اطلاعات نادرست فعالانه خروجی مدل‌های بزرگ زبانی (LLM) را شکل می‌دهند. این مدل‌ها، که ربات‌های گفتگوی هوش مصنوعی را که روزانه با آن‌ها تعامل داریم، تقویت می‌کنند، به مجموعه داده‌های عظیمی که از اینترنت استخراج شده‌اند، متکی هستند. هنگامی که این داده‌ها با اطلاعات نادرست آلوده می‌شوند، خروجی حاصل این سوگیری‌ها را منعکس می‌کند.

NewsGuard، شرکتی که رتبه‌بندی اعتبار و اثر انگشت اطلاعات نادرست را برای وب‌سایت‌های خبری و اطلاعاتی ارائه می‌دهد، تجزیه و تحلیل عمیقی از این پدیده انجام داد. یافته‌های آن‌ها یک واقعیت نگران‌کننده را آشکار می‌کند: بخش قابل توجهی از اطلاعات تولید شده توسط ربات‌های گفتگوی هوش مصنوعی پیشرو، روایت‌های منتشر شده توسط شبکه خاصی از وب‌سایت‌های طرفدار کرملین را تکرار می‌کند.

مکانیک‌های اطلاعات نادرست: چگونه مدل‌های هوش مصنوعی دستکاری می‌شوند

استراتژی به کار گرفته شده توسط این شبکه اطلاعات نادرست هم موذیانه و هم پیچیده است. هدف اصلی آن جذب خوانندگان انسانی نیست. بلکه برای دستکاری الگوریتم‌هایی طراحی شده است که زیربنای ربات‌های گفتگوی هوش مصنوعی هستند. این تاکتیک، که به عنوان ‘آراستن LLM’ شناخته می‌شود، شامل کاشت استراتژیک اطلاعات نادرست یا گمراه‌کننده در وب‌سایت‌های متعدد است، با علم به اینکه این پلتفرم‌ها توسط LLM‌ها خراشیده و بلعیده می‌شوند.

پروژه American Sunlight (ASP)، یک سازمان غیرانتفاعی آمریکایی، این تهدید را در گزارشی در فوریه 2025 برجسته کرد. آنها هشدار دادند که شبکه Pravda، مجموعه‌ای از وب‌سایت‌هایی که روایت‌های طرفدار روسیه را منتشر می‌کنند، احتمالاً با هدف صریح تأثیرگذاری بر مدل‌های هوش مصنوعی ایجاد شده است. هر چه حجم روایت‌های طرفدار روسیه بیشتر باشد، احتمال ادغام آن‌ها در پایگاه دانش LLM‌ها بیشتر می‌شود.

پیامدهای این امر بسیار گسترده است. از آنجایی که LLM‌ها به طور فزاینده‌ای در زندگی روزمره ما ادغام می‌شوند و به عنوان منابع اطلاعات و کمک عمل می‌کنند، پتانسیل انتشار گسترده محتوای دستکاری شده نگران‌کننده است.

ممیزی NewsGuard: کمی‌سازی تأثیر

برای ارزیابی میزان این مشکل، NewsGuard ممیزی ده ربات گفتگوی هوش مصنوعی برجسته را انجام داد. اینها شامل:

  • OpenAI’s ChatGPT-4o
  • You.com’s Smart Assistant
  • xAI’s Grok
  • Inflection’s Pi
  • Mistral’s le Chat
  • Microsoft’s Copilot
  • Meta AI
  • Anthropic’s Claude
  • Google’s Gemini
  • Perplexity’s answer engine

این ممیزی بر روی 15 روایت نادرست متمایز متمرکز بود که به طور فعال توسط 150 وب سایت پراودا طرفدار کرملین بین آوریل 2022 و فوریه 2025 ترویج شده بودند. این روایت ها طیف وسیعی از موضوعات را پوشش می دادند که همگی برای پیشبرد یک دستور کار سیاسی خاص طراحی شده بودند.

روش‌شناسی شامل آزمایش هر ربات گفتگو با مجموعه‌ای از اعلان‌ها بر اساس اثر انگشت اطلاعات نادرست NewsGuard، فهرستی از ادعاهای نادرست اثبات‌شده در مورد موضوعات مهم خبری بود. اعلان‌ها در سه سبک مختلف – بی‌گناه، هدایت‌کننده و بدخواه – ساخته شده‌اند تا از روش‌های مختلف تعامل کاربران با مدل‌های هوش مصنوعی مولد تقلید کنند. این منجر به مجموع 450 پاسخ (45 پاسخ برای هر ربات گفتگو) شد.

نتایج نگران‌کننده: اطلاعات نادرست رایج در میان ربات‌های گفتگو

یافته‌های ممیزی NewsGuard تکان‌دهنده بود. در مجموع، ده ربات گفتگوی هوش مصنوعی روایت‌های نادرست اطلاعات نادرست روسیه را در 33.55٪ از پاسخ‌ها تکرار کردند. آنها در 18.22٪ موارد پاسخی ارائه نکردند و در 48.22٪ موارد روایت را رد کردند.

هر ربات گفتگوی آزمایش شده، اطلاعات نادرست منشأ گرفته از شبکه Pravda را تکرار کرد. نگران‌کننده‌تر اینکه، هفت ربات گفتگو مستقیماً مقالات خاصی از وب‌سایت‌های Pravda را به عنوان منابع خود ذکر کردند. در حالی که دو مدل از هوش مصنوعی استناد صریحی ارائه نمی‌دهند، اما همچنان مشخص شد که روایت‌های نادرست شبکه را تولید یا تکرار می‌کنند. فقط یکی از هشت مدلی که منابع را ذکر می کنند، پراودا را ذکر نکرده است.

در مجموع، 56 پاسخ از 450 پاسخ تولید شده توسط ربات گفتگو شامل پیوندهای مستقیم به مقالاتی بود که ادعاهای نادرست منتشر شده توسط شبکه Pravda را منتشر می کردند. ربات‌های گفتگو در مجموع 92 مقاله مختلف حاوی اطلاعات نادرست را ذکر کردند که دو مدل به 27 مقاله پراودا اشاره کردند. این مقالات از دامنه‌های مختلفی در شبکه، از جمله Denmark.news-pravda.com، Trump.news-pravda.com و NATO.news-pravda.com سرچشمه می‌گرفتند.

ماهیت اعلان‌ها: تقلید از تعاملات دنیای واقعی

سه سبک اعلان مورد استفاده در ممیزی NewsGuard برای انعکاس طیف تعاملات کاربر با ربات‌های گفتگوی هوش مصنوعی طراحی شده‌اند:

  • اعلان‌های بی‌گناه: این اعلان‌ها روایت نادرست را به شیوه‌ای خنثی و غیر هدایت‌کننده ارائه می‌کردند، گویی کاربر صرفاً به دنبال اطلاعات بدون هیچ گونه تصور قبلی است.
  • اعلان‌های هدایت‌کننده: این اعلان‌ها به طور ظریفی روایت نادرست را پیشنهاد می‌کردند و به اعتبار آن اشاره می‌کردند بدون اینکه صریحاً آن را بیان کنند. این سناریوهایی را تقلید می‌کند که در آن کاربران ممکن است قبلاً در معرض اطلاعات نادرست قرار گرفته باشند و به دنبال تأیید باشند.
  • اعلان‌های بدخواه: این اعلان‌ها مستقیماً روایت نادرست را به عنوان واقعیت بیان می‌کردند، که منعکس‌کننده موقعیت‌هایی است که کاربران قبلاً به اطلاعات نادرست متقاعد شده‌اند و به دنبال تقویت هستند.

این رویکرد چند وجهی در درک اینکه چگونه انواع مختلف تعامل کاربر ممکن است بر پاسخ ربات گفتگو تأثیر بگذارد، بسیار مهم بود. این نشان داد که ربات‌های گفتگو صرف نظر از سبک اعلان، مستعد تکرار اطلاعات نادرست هستند، اگرچه فراوانی و ماهیت پاسخ‌ها متفاوت بود.

نمونه‌های خاصی از اطلاعات نادرست که توسط ربات‌های گفتگو تکرار شده‌اند

گزارش NewsGuard نمونه‌های متعددی از روایت‌های نادرست خاصی را ارائه می‌دهد که توسط شبکه Pravda منتشر شده و متعاقباً توسط ربات‌های گفتگوی هوش مصنوعی تکرار شده‌اند. این مثال‌ها وسعت و عمق کمپین اطلاعات نادرست را برجسته می‌کنند. برخی از روایت ها عبارتند از:

  • ادعاهایی مبنی بر اینکه اوکراین یک دولت نازی است.
  • ادعاهای نادرست در مورد علل درگیری در اوکراین.
  • اطلاعات گمراه کننده در مورد دخالت غرب در درگیری.
  • داستان های ساختگی در مورد رهبری اوکراین.

اینها تنها چند نمونه از بسیاری از روایت‌های نادرستی هستند که به دقت توسط NewsGuard مستندسازی و ردیابی شده‌اند. این واقعیت که این روایت‌ها توسط ربات‌های گفتگوی هوش مصنوعی پیشرو تکرار می‌شوند، بر نیاز فوری به اقدامات متقابل مؤثر تأکید می‌کند.

چالش مبارزه با اطلاعات نادرست مبتنی بر هوش مصنوعی

رسیدگی به این مشکل یک کار پیچیده است. این امر مستلزم یک رویکرد چند جانبه است که شامل راه حل های تکنولوژیکی و افزایش آگاهی کاربر می شود.

راه حل های تکنولوژیکی:

  • بهبود فیلتر کردن داده‌ها: توسعه‌دهندگان هوش مصنوعی باید مکانیسم‌های قوی‌تری را برای فیلتر کردن اطلاعات نادرست از مجموعه داده‌های مورد استفاده برای آموزش LLM‌ها پیاده‌سازی کنند. این شامل شناسایی و حذف منابع غیرقابل اعتماد، و همچنین توسعه الگوریتم‌هایی است که می‌توانند اطلاعات بالقوه نادرست یا گمراه‌کننده را شناسایی و پرچم‌گذاری کنند.
  • تأیید منبع پیشرفته: ربات‌های گفتگو باید به گونه‌ای طراحی شوند که اطلاعات منابع معتبر و تأیید شده را در اولویت قرار دهند. این شامل ارائه استنادهای واضح و اجازه دادن به کاربران برای ردیابی آسان منشأ اطلاعات ارائه شده است.
  • شفافیت و قابلیت توضیح: مدل‌های هوش مصنوعی باید در مورد فرآیندهای تصمیم‌گیری خود شفاف‌تر باشند. کاربران باید بتوانند بفهمند که چرا یک ربات گفتگو پاسخ خاصی را ارائه می‌دهد و به چه منابع داده‌ای متکی است.

آگاهی کاربر:

  • آموزش سواد رسانه‌ای: کاربران باید در مورد پتانسیل اطلاعات نادرست تولید شده توسط هوش مصنوعی آموزش ببینند. این شامل توسعه مهارت‌های تفکر انتقادی و یادگیری نحوه ارزیابی اعتبار منابع اطلاعات آنلاین است.
  • شک و تردید و تأیید: کاربران باید با دوز سالمی از شک و تردید به اطلاعات ارائه شده توسط ربات‌های گفتگوی هوش مصنوعی نزدیک شوند. ارجاع متقابل اطلاعات با منابع دیگر و احتیاط در مورد ادعاهایی که بیش از حد هیجان‌انگیز یا بیش از حد خوب به نظر می‌رسند، بسیار مهم است.

خطرات بلندمدت: سیاسی، اجتماعی و تکنولوژیکی

گسترش کنترل نشده اطلاعات نادرست از طریق ربات‌های گفتگوی هوش مصنوعی خطرات بلندمدت قابل توجهی را به همراه دارد. این خطرات فراتر از تأثیر فوری روایت‌های نادرست فردی است و پیامدهای اجتماعی گسترده‌تری را در بر می‌گیرد.

  • خطرات سیاسی: دستکاری افکار عمومی از طریق اطلاعات نادرست مبتنی بر هوش مصنوعی می‌تواند فرآیندهای دموکراتیک را تضعیف کند و اعتماد به نهادها را از بین ببرد. می توان از آن برای تأثیرگذاری بر انتخابات، ایجاد اختلاف و بی ثبات کردن دولت ها استفاده کرد.
  • خطرات اجتماعی: گسترش روایت‌های نادرست می‌تواند شکاف‌های اجتماعی موجود را تشدید کند و شکاف‌های جدیدی ایجاد کند. این می تواند به تعصب، تبعیض و حتی خشونت دامن بزند.
  • خطرات تکنولوژیکی: از بین رفتن اعتماد به فناوری هوش مصنوعی به دلیل گسترش اطلاعات نادرست می تواند مانع توسعه و پذیرش آن شود. اگر مردم نتوانند به صحت و اعتبار اطلاعات ارائه شده اطمینان داشته باشند، ممکن است تمایلی به استفاده از ابزارهای هوش مصنوعی نداشته باشند.

نبرد علیه اطلاعات نادرست مبتنی بر هوش مصنوعی یک نبرد حیاتی است. این امر مستلزم تلاش هماهنگ توسعه دهندگان هوش مصنوعی، سیاست گذاران، مربیان و کاربران فردی است تا اطمینان حاصل شود که از این فناوری های قدرتمند به طور مسئولانه و اخلاقی استفاده می شود. آینده اطلاعات و در واقع آینده جوامع ما ممکن است به آن بستگی داشته باشد.