جنگ‌افزار ربات‌های هوش مصنوعی روسیه با اطلاعات نادرست

مکانیسم‌های ‘LLM Grooming’

شبکه پراودا از طریق یک شبکه گسترده متشکل از تقریباً 150 سایت خبری جعلی فعالیت می‌کند. این سایت‌ها، با این حال، برای مصرف انسانی طراحی نشده‌اند. با حداقل ترافیک – اکثر صفحات کمتر از 1000 بازدیدکننده ماهانه دریافت می‌کنند – هدف اصلی آنها تغذیه محتوا به سیستم‌های هوش مصنوعی است. این استراتژی نشان دهنده یک رویکرد جدید برای اطلاعات نادرست است، که فراتر از روش‌های سنتی است که مستقیماً خوانندگان انسانی را هدف قرار می‌دهند.

این تاکتیک به عنوان “LLM grooming“ شناخته می‌شود، اصطلاحی که دستکاری عمدی داده‌های آموزشی هوش مصنوعی را توصیف می‌کند. این شبکه با انتشار انبوه محتوایی که به شدت برای موتورهای جستجو (SEO) بهینه شده است، به این مهم دست می‌یابد. این تضمین می‌کند که تبلیغات به راحتی توسط مدل‌های هوش مصنوعی جذب و بازنشر می‌شود و بر خروجی‌های آنها تأثیر می‌گذارد و به طور بالقوه ادراک عمومی را شکل می‌دهد.

جان مارک دوگان، یک آمریکایی ساکن مسکو که توسط NewsGuard به عنوان حامی کمپین‌های اطلاعات نادرست روسیه شناسایی شده است، اصل اساسی را در یک کنفرانس محلی توضیح داد: “هر چه این اطلاعات متنوع‌تر باشد، بیشتر بر آموزش و هوش مصنوعی آینده تأثیر می‌گذارد.” این بیانیه ماهیت موذیانه این عملیات را برجسته می‌کند، که هدف آن تخریب ظریف داده‌های بنیادی است که سیستم‌های هوش مصنوعی بر اساس آن ساخته شده‌اند.

مقیاس و دامنه عملیات

مقیاس فعالیت‌های شبکه پراودا خیره کننده است. تنها در سال 2024، این سایت‌ها تقریباً 3.6 میلیون مقاله در 49 کشور منتشر کردند. نام‌های دامنه به طور استراتژیک برای تقلید از منابع خبری قانونی انتخاب می‌شوند، به عنوان مثال NATO.News-Pravda.com، Trump.News-Pravda.com، و Macron.News-Pravda.com. این تقلید لایه‌ای از فریب را اضافه می‌کند و تشخیص محتوای معتبر و ساختگی را برای ناظران معمولی دشوارتر می‌کند.

خود محتوا طیف گسترده‌ای از موضوعات را در بر می‌گیرد، اما به طور مداوم روایت‌های طرفدار روسیه را ترویج می‌کند و دیدگاه‌های غربی را تضعیف می‌کند. این شبکه حداقل از آوریل 2022 فعال بوده است و تجزیه و تحلیل NewsGuard بر روی 15 داستان نادرست قابل تأیید که توسط شبکه پراودا بین آن زمان و فوریه 2025 توزیع شده است، متمرکز شده است.

آسیب‌پذیری ربات‌های گفتگوی هوش مصنوعی

تحقیقات NewsGuard شامل آزمایش چندین ربات گفتگوی برجسته هوش مصنوعی برای ارزیابی آسیب‌پذیری آنها در برابر اطلاعات نادرست شبکه پراودا بود. سیستم‌های آزمایش شده عبارتند از:

  • OpenAI’s ChatGPT-4o
  • You.com’s Smart Assistant
  • xAI’s Grok
  • Inflection’s Pi
  • Mistral’s le Chat
  • Microsoft’s Copilot
  • Meta AI
  • Anthropic’s Claude
  • Google’s Gemini
  • Perplexity

نتایج نگران کننده بود. ربات‌های گفتگوی هوش مصنوعی روایت‌های نادرست شبکه پراودا را در 33.5 درصد موارد پذیرفتند. در حالی که سیستم‌ها در 48.2 درصد موارد به درستی محتوای روسی را به عنوان اطلاعات نادرست شناسایی کردند، گاهی اوقات از منابع گمراه‌کننده استناد می‌کردند و به طور بالقوه به آنها اعتبار ناموجهی می‌دادند. 18.2 درصد باقی‌مانده پاسخ‌ها بی‌نتیجه بودند، که چالش‌های تشخیص حقیقت از دروغ را در عصر محتوای تولید شده توسط هوش مصنوعی بیشتر برجسته می‌کند.

چالش مقابله با اطلاعات نادرست مبتنی بر هوش مصنوعی

مبارزه با این نوع دستکاری چالش بزرگی را ایجاد می‌کند. روش‌های سنتی مسدود کردن وب‌سایت‌های شناخته شده اطلاعات نادرست بی‌اثر می‌شوند. هنگامی که مقامات دامنه‌های پراودا را مسدود می‌کنند، دامنه‌های جدید به سرعت ظاهر می‌شوند که نشان دهنده چابکی و انعطاف‌پذیری شبکه است.

علاوه بر این، جریان اطلاعات نادرست از طریق چندین کانال به طور همزمان جریان می‌یابد، اغلب با سایت‌های شبکه مختلف که محتوای یکدیگر را بازگو می‌کنند. این یک شبکه پیچیده از منابع به هم پیوسته ایجاد می‌کند که جداسازی و خنثی کردن تبلیغات در ریشه آن را دشوار می‌کند. مسدود کردن ساده وب‌سایت‌ها محافظت محدودی در برابر کمپین گسترده‌تر و هماهنگ ارائه می‌دهد.

زمینه گسترده‌تر: دستکاری هوش مصنوعی با حمایت دولت

فعالیت‌های شبکه پراودا حوادثی مجزا نیستند. آنها با الگوی گسترده‌تری از تلاش‌های تحت حمایت دولت برای استفاده از هوش مصنوعی برای اهداف اطلاعات نادرست همسو هستند. یک مطالعه اخیر OpenAI نشان داد که بازیگران تحت حمایت دولت از روسیه، چین، ایران و اسرائیل قبلاً تلاش کرده‌اند از سیستم‌های هوش مصنوعی برای کمپین‌های تبلیغاتی استفاده کنند. این عملیات‌ها اغلب محتوای تولید شده توسط هوش مصنوعی را با مواد سنتی و دستی ترکیب می‌کنند و مرزهای بین اطلاعات معتبر و دستکاری شده را محو می‌کنند.

استفاده از هوش مصنوعی در دستکاری سیاسی محدود به بازیگران دولتی نیست. گروه‌های سیاسی، مانند حزب راست افراطی AFD آلمان، نیز مشاهده شده‌اند که از مدل‌های تصویر هوش مصنوعی برای اهداف تبلیغاتی استفاده می‌کنند. حتی چهره‌هایی مانند دونالد ترامپ با محتوای تولید شده توسط هوش مصنوعی درگیر شده‌اند، هم به عنوان مصرف‌کننده و هم، به طور متناقض، با برچسب‌گذاری اطلاعات واقعی به عنوان جعلیات تولید شده توسط هوش مصنوعی. این تاکتیک، که به عنوان نوعی ضد تبلیغات شناخته می‌شود، بی‌اعتمادی را در تمام اطلاعات آنلاین ایجاد می‌کند و به طور بالقوه افراد را به سمت اتکا صرف به چهره‌های مورد اعتماد، صرف نظر از صحت واقعی، سوق می‌دهد.

حتی طراحی خود مدل‌های هوش مصنوعی نیز می‌تواند تحت تأثیر برنامه‌های دولتی قرار گیرد. به عنوان مثال، مشخص شده است که مدل‌های هوش مصنوعی چینی از قبل با سانسور و تبلیغات بارگذاری شده‌اند که منعکس کننده اولویت‌های سیاسی دولت چین است.

بررسی عمیق: نمونه‌های خاصی از روایت‌های نادرست

در حالی که گزارش NewsGuard تمام روایت‌های نادرست منتشر شده توسط شبکه پراودا را به تفصیل شرح نمی‌دهد، روش استفاده از داستان‌های نادرست قابل تأیید، الگویی از انتشار اطلاعات نادرست را نشان می‌دهد که برای اهداف زیر طراحی شده است:

  1. تضعیف نهادهای غربی: داستان‌ها ممکن است به دروغ ناتو را به عنوان یک سازمان متجاوز یا بی‌ثبات نشان دهند، یا رسوایی‌هایی را در مورد رهبران غربی جعل کنند.
  2. ترویج احساسات طرفدار روسیه: روایت‌ها می‌توانند موفقیت‌های نظامی روسیه را اغراق کنند، نقض حقوق بشر را کم‌اهمیت جلوه دهند، یا اقدامات آن را در صحنه جهانی توجیه کنند.
  3. ایجاد اختلاف و تفرقه: محتوا ممکن است با هدف تشدید تنش‌های اجتماعی و سیاسی موجود در کشورهای غربی، تقویت مسائل تفرقه‌انگیز و ترویج قطبی‌سازی باشد.
  4. تحریف واقعیت پیرامون رویدادهای خاص: اطلاعات نادرست می‌تواند در مورد رویدادهایی مانند انتخابات، درگیری‌ها یا حوادث بین‌المللی منتشر شود و روایت را به نفع تفسیر طرفدار روسیه تغییر دهد.

موضوع ثابت، دستکاری اطلاعات برای خدمت به یک دستور کار ژئوپلیتیکی خاص است. استفاده از هوش مصنوعی دامنه و تأثیر بالقوه این روایت‌ها را تقویت می‌کند و تشخیص و مقابله با آنها را دشوارتر می‌کند.

پیامدهای بلندمدت

پیامدهای این اطلاعات نادرست مبتنی بر هوش مصنوعی بسیار گسترده است. فرسایش اعتماد به منابع اطلاعاتی، پتانسیل دستکاری افکار عمومی و بی‌ثباتی فرآیندهای دموکراتیک همگی نگرانی‌های جدی هستند. از آنجایی که سیستم‌های هوش مصنوعی به طور فزاینده‌ای در زندگی روزمره ما ادغام می‌شوند، توانایی تشخیص حقیقت از دروغ بیش از پیش حیاتی می‌شود.

تکنیک “LLM grooming” نشان دهنده یک تشدید قابل توجه در چشم‌انداز جنگ اطلاعاتی است. این امر آسیب‌پذیری سیستم‌های هوش مصنوعی را در برابر دستکاری برجسته می‌کند و نیاز به دفاع‌های قوی در برابر این تهدید نوظهور را نشان می‌دهد. چالش نه تنها در شناسایی و مسدود کردن منابع اطلاعات نادرست، بلکه در توسعه استراتژی‌هایی برای ایمن‌سازی مدل‌های هوش مصنوعی در برابر این اشکال ظریف اما فراگیر نفوذ نهفته است. این امر مستلزم یک رویکرد چند وجهی است که شامل موارد زیر است:

  • سواد هوش مصنوعی پیشرفته: آموزش عموم مردم در مورد پتانسیل اطلاعات نادرست تولید شده توسط هوش مصنوعی و ترویج مهارت‌های تفکر انتقادی.
  • ابزارهای بهبود یافته تشخیص هوش مصنوعی: توسعه روش‌های پیچیده‌تر برای شناسایی و پرچم‌گذاری محتوای تولید شده توسط هوش مصنوعی و اطلاعات نادرست.
  • تقویت داده‌های آموزشی هوش مصنوعی: اجرای اقداماتی برای اطمینان از یکپارچگی و تنوع داده‌های آموزشی هوش مصنوعی، و مقاوم‌تر کردن آن در برابر دستکاری.
  • همکاری بین‌المللی: تقویت همکاری بین دولت‌ها، شرکت‌های فناوری و محققان برای مقابله با این چالش جهانی.
  • افزایش شفافیت: توسعه دهندگان هوش مصنوعی باید در مورد داده‌های آموزشی مورد استفاده و سوگیری‌های بالقوه‌ای که ممکن است در مدل‌هایشان وجود داشته باشد، شفاف باشند.
  • پاسخگویی الگوریتمی: پاسخگو کردن توسعه دهندگان هوش مصنوعی در قبال خروجی‌های سیستم‌هایشان، به ویژه هنگامی که از این خروجی‌ها برای انتشار اطلاعات نادرست استفاده می‌شود.

نبرد علیه اطلاعات نادرست مبتنی بر هوش مصنوعی پیچیده و در حال تحول است. این امر مستلزم تلاش هماهنگ افراد، سازمان‌ها و دولت‌ها برای حفظ یکپارچگی اطلاعات و حفاظت از مبانی تصمیم‌گیری آگاهانه است. فعالیت‌های شبکه پراودا به عنوان یادآوری آشکار از خطرات موجود و فوریت رسیدگی به این تهدید رو به رشد عمل می‌کند. آینده گفتمان عمومی آگاهانه، و به طور بالقوه ثبات جوامع دموکراتیک، ممکن است به توانایی ما در مقابله موفقیت‌آمیز با این شکل جدید از دستکاری بستگی داشته باشد. چالش نه تنها تکنولوژیکی است، بلکه اجتماعی نیز هست و مستلزم تعهد مجدد به حقیقت، دقت و تفکر انتقادی در عصر دیجیتال است.