مکانیسمهای ‘LLM Grooming’
شبکه پراودا از طریق یک شبکه گسترده متشکل از تقریباً 150 سایت خبری جعلی فعالیت میکند. این سایتها، با این حال، برای مصرف انسانی طراحی نشدهاند. با حداقل ترافیک – اکثر صفحات کمتر از 1000 بازدیدکننده ماهانه دریافت میکنند – هدف اصلی آنها تغذیه محتوا به سیستمهای هوش مصنوعی است. این استراتژی نشان دهنده یک رویکرد جدید برای اطلاعات نادرست است، که فراتر از روشهای سنتی است که مستقیماً خوانندگان انسانی را هدف قرار میدهند.
این تاکتیک به عنوان “LLM grooming“ شناخته میشود، اصطلاحی که دستکاری عمدی دادههای آموزشی هوش مصنوعی را توصیف میکند. این شبکه با انتشار انبوه محتوایی که به شدت برای موتورهای جستجو (SEO) بهینه شده است، به این مهم دست مییابد. این تضمین میکند که تبلیغات به راحتی توسط مدلهای هوش مصنوعی جذب و بازنشر میشود و بر خروجیهای آنها تأثیر میگذارد و به طور بالقوه ادراک عمومی را شکل میدهد.
جان مارک دوگان، یک آمریکایی ساکن مسکو که توسط NewsGuard به عنوان حامی کمپینهای اطلاعات نادرست روسیه شناسایی شده است، اصل اساسی را در یک کنفرانس محلی توضیح داد: “هر چه این اطلاعات متنوعتر باشد، بیشتر بر آموزش و هوش مصنوعی آینده تأثیر میگذارد.” این بیانیه ماهیت موذیانه این عملیات را برجسته میکند، که هدف آن تخریب ظریف دادههای بنیادی است که سیستمهای هوش مصنوعی بر اساس آن ساخته شدهاند.
مقیاس و دامنه عملیات
مقیاس فعالیتهای شبکه پراودا خیره کننده است. تنها در سال 2024، این سایتها تقریباً 3.6 میلیون مقاله در 49 کشور منتشر کردند. نامهای دامنه به طور استراتژیک برای تقلید از منابع خبری قانونی انتخاب میشوند، به عنوان مثال NATO.News-Pravda.com، Trump.News-Pravda.com، و Macron.News-Pravda.com. این تقلید لایهای از فریب را اضافه میکند و تشخیص محتوای معتبر و ساختگی را برای ناظران معمولی دشوارتر میکند.
خود محتوا طیف گستردهای از موضوعات را در بر میگیرد، اما به طور مداوم روایتهای طرفدار روسیه را ترویج میکند و دیدگاههای غربی را تضعیف میکند. این شبکه حداقل از آوریل 2022 فعال بوده است و تجزیه و تحلیل NewsGuard بر روی 15 داستان نادرست قابل تأیید که توسط شبکه پراودا بین آن زمان و فوریه 2025 توزیع شده است، متمرکز شده است.
آسیبپذیری رباتهای گفتگوی هوش مصنوعی
تحقیقات NewsGuard شامل آزمایش چندین ربات گفتگوی برجسته هوش مصنوعی برای ارزیابی آسیبپذیری آنها در برابر اطلاعات نادرست شبکه پراودا بود. سیستمهای آزمایش شده عبارتند از:
- OpenAI’s ChatGPT-4o
- You.com’s Smart Assistant
- xAI’s Grok
- Inflection’s Pi
- Mistral’s le Chat
- Microsoft’s Copilot
- Meta AI
- Anthropic’s Claude
- Google’s Gemini
- Perplexity
نتایج نگران کننده بود. رباتهای گفتگوی هوش مصنوعی روایتهای نادرست شبکه پراودا را در 33.5 درصد موارد پذیرفتند. در حالی که سیستمها در 48.2 درصد موارد به درستی محتوای روسی را به عنوان اطلاعات نادرست شناسایی کردند، گاهی اوقات از منابع گمراهکننده استناد میکردند و به طور بالقوه به آنها اعتبار ناموجهی میدادند. 18.2 درصد باقیمانده پاسخها بینتیجه بودند، که چالشهای تشخیص حقیقت از دروغ را در عصر محتوای تولید شده توسط هوش مصنوعی بیشتر برجسته میکند.
چالش مقابله با اطلاعات نادرست مبتنی بر هوش مصنوعی
مبارزه با این نوع دستکاری چالش بزرگی را ایجاد میکند. روشهای سنتی مسدود کردن وبسایتهای شناخته شده اطلاعات نادرست بیاثر میشوند. هنگامی که مقامات دامنههای پراودا را مسدود میکنند، دامنههای جدید به سرعت ظاهر میشوند که نشان دهنده چابکی و انعطافپذیری شبکه است.
علاوه بر این، جریان اطلاعات نادرست از طریق چندین کانال به طور همزمان جریان مییابد، اغلب با سایتهای شبکه مختلف که محتوای یکدیگر را بازگو میکنند. این یک شبکه پیچیده از منابع به هم پیوسته ایجاد میکند که جداسازی و خنثی کردن تبلیغات در ریشه آن را دشوار میکند. مسدود کردن ساده وبسایتها محافظت محدودی در برابر کمپین گستردهتر و هماهنگ ارائه میدهد.
زمینه گستردهتر: دستکاری هوش مصنوعی با حمایت دولت
فعالیتهای شبکه پراودا حوادثی مجزا نیستند. آنها با الگوی گستردهتری از تلاشهای تحت حمایت دولت برای استفاده از هوش مصنوعی برای اهداف اطلاعات نادرست همسو هستند. یک مطالعه اخیر OpenAI نشان داد که بازیگران تحت حمایت دولت از روسیه، چین، ایران و اسرائیل قبلاً تلاش کردهاند از سیستمهای هوش مصنوعی برای کمپینهای تبلیغاتی استفاده کنند. این عملیاتها اغلب محتوای تولید شده توسط هوش مصنوعی را با مواد سنتی و دستی ترکیب میکنند و مرزهای بین اطلاعات معتبر و دستکاری شده را محو میکنند.
استفاده از هوش مصنوعی در دستکاری سیاسی محدود به بازیگران دولتی نیست. گروههای سیاسی، مانند حزب راست افراطی AFD آلمان، نیز مشاهده شدهاند که از مدلهای تصویر هوش مصنوعی برای اهداف تبلیغاتی استفاده میکنند. حتی چهرههایی مانند دونالد ترامپ با محتوای تولید شده توسط هوش مصنوعی درگیر شدهاند، هم به عنوان مصرفکننده و هم، به طور متناقض، با برچسبگذاری اطلاعات واقعی به عنوان جعلیات تولید شده توسط هوش مصنوعی. این تاکتیک، که به عنوان نوعی ضد تبلیغات شناخته میشود، بیاعتمادی را در تمام اطلاعات آنلاین ایجاد میکند و به طور بالقوه افراد را به سمت اتکا صرف به چهرههای مورد اعتماد، صرف نظر از صحت واقعی، سوق میدهد.
حتی طراحی خود مدلهای هوش مصنوعی نیز میتواند تحت تأثیر برنامههای دولتی قرار گیرد. به عنوان مثال، مشخص شده است که مدلهای هوش مصنوعی چینی از قبل با سانسور و تبلیغات بارگذاری شدهاند که منعکس کننده اولویتهای سیاسی دولت چین است.
بررسی عمیق: نمونههای خاصی از روایتهای نادرست
در حالی که گزارش NewsGuard تمام روایتهای نادرست منتشر شده توسط شبکه پراودا را به تفصیل شرح نمیدهد، روش استفاده از داستانهای نادرست قابل تأیید، الگویی از انتشار اطلاعات نادرست را نشان میدهد که برای اهداف زیر طراحی شده است:
- تضعیف نهادهای غربی: داستانها ممکن است به دروغ ناتو را به عنوان یک سازمان متجاوز یا بیثبات نشان دهند، یا رسواییهایی را در مورد رهبران غربی جعل کنند.
- ترویج احساسات طرفدار روسیه: روایتها میتوانند موفقیتهای نظامی روسیه را اغراق کنند، نقض حقوق بشر را کماهمیت جلوه دهند، یا اقدامات آن را در صحنه جهانی توجیه کنند.
- ایجاد اختلاف و تفرقه: محتوا ممکن است با هدف تشدید تنشهای اجتماعی و سیاسی موجود در کشورهای غربی، تقویت مسائل تفرقهانگیز و ترویج قطبیسازی باشد.
- تحریف واقعیت پیرامون رویدادهای خاص: اطلاعات نادرست میتواند در مورد رویدادهایی مانند انتخابات، درگیریها یا حوادث بینالمللی منتشر شود و روایت را به نفع تفسیر طرفدار روسیه تغییر دهد.
موضوع ثابت، دستکاری اطلاعات برای خدمت به یک دستور کار ژئوپلیتیکی خاص است. استفاده از هوش مصنوعی دامنه و تأثیر بالقوه این روایتها را تقویت میکند و تشخیص و مقابله با آنها را دشوارتر میکند.
پیامدهای بلندمدت
پیامدهای این اطلاعات نادرست مبتنی بر هوش مصنوعی بسیار گسترده است. فرسایش اعتماد به منابع اطلاعاتی، پتانسیل دستکاری افکار عمومی و بیثباتی فرآیندهای دموکراتیک همگی نگرانیهای جدی هستند. از آنجایی که سیستمهای هوش مصنوعی به طور فزایندهای در زندگی روزمره ما ادغام میشوند، توانایی تشخیص حقیقت از دروغ بیش از پیش حیاتی میشود.
تکنیک “LLM grooming” نشان دهنده یک تشدید قابل توجه در چشمانداز جنگ اطلاعاتی است. این امر آسیبپذیری سیستمهای هوش مصنوعی را در برابر دستکاری برجسته میکند و نیاز به دفاعهای قوی در برابر این تهدید نوظهور را نشان میدهد. چالش نه تنها در شناسایی و مسدود کردن منابع اطلاعات نادرست، بلکه در توسعه استراتژیهایی برای ایمنسازی مدلهای هوش مصنوعی در برابر این اشکال ظریف اما فراگیر نفوذ نهفته است. این امر مستلزم یک رویکرد چند وجهی است که شامل موارد زیر است:
- سواد هوش مصنوعی پیشرفته: آموزش عموم مردم در مورد پتانسیل اطلاعات نادرست تولید شده توسط هوش مصنوعی و ترویج مهارتهای تفکر انتقادی.
- ابزارهای بهبود یافته تشخیص هوش مصنوعی: توسعه روشهای پیچیدهتر برای شناسایی و پرچمگذاری محتوای تولید شده توسط هوش مصنوعی و اطلاعات نادرست.
- تقویت دادههای آموزشی هوش مصنوعی: اجرای اقداماتی برای اطمینان از یکپارچگی و تنوع دادههای آموزشی هوش مصنوعی، و مقاومتر کردن آن در برابر دستکاری.
- همکاری بینالمللی: تقویت همکاری بین دولتها، شرکتهای فناوری و محققان برای مقابله با این چالش جهانی.
- افزایش شفافیت: توسعه دهندگان هوش مصنوعی باید در مورد دادههای آموزشی مورد استفاده و سوگیریهای بالقوهای که ممکن است در مدلهایشان وجود داشته باشد، شفاف باشند.
- پاسخگویی الگوریتمی: پاسخگو کردن توسعه دهندگان هوش مصنوعی در قبال خروجیهای سیستمهایشان، به ویژه هنگامی که از این خروجیها برای انتشار اطلاعات نادرست استفاده میشود.
نبرد علیه اطلاعات نادرست مبتنی بر هوش مصنوعی پیچیده و در حال تحول است. این امر مستلزم تلاش هماهنگ افراد، سازمانها و دولتها برای حفظ یکپارچگی اطلاعات و حفاظت از مبانی تصمیمگیری آگاهانه است. فعالیتهای شبکه پراودا به عنوان یادآوری آشکار از خطرات موجود و فوریت رسیدگی به این تهدید رو به رشد عمل میکند. آینده گفتمان عمومی آگاهانه، و به طور بالقوه ثبات جوامع دموکراتیک، ممکن است به توانایی ما در مقابله موفقیتآمیز با این شکل جدید از دستکاری بستگی داشته باشد. چالش نه تنها تکنولوژیکی است، بلکه اجتماعی نیز هست و مستلزم تعهد مجدد به حقیقت، دقت و تفکر انتقادی در عصر دیجیتال است.