نفوذ فراگیر دروغهای تحت حمایت کرملین
هسته اصلی مشکل در آلودگی عمدی منابع اطلاعات آنلاین نهفته است. با اشباع نتایج جستجو و خزندههای وب با دروغهای طرفدار کرملین، شبکهای از عوامل اطلاعات نادرست فعالانه خروجی مدلهای بزرگ زبانی (LLM) را شکل میدهند. این مدلها، که رباتهای گفتگوی هوش مصنوعی را که روزانه با آنها تعامل داریم، تقویت میکنند، به مجموعه دادههای عظیمی که از اینترنت استخراج شدهاند، متکی هستند. هنگامی که این دادهها با اطلاعات نادرست آلوده میشوند، خروجی حاصل این سوگیریها را منعکس میکند.
NewsGuard، شرکتی که رتبهبندی اعتبار و اثر انگشت اطلاعات نادرست را برای وبسایتهای خبری و اطلاعاتی ارائه میدهد، تجزیه و تحلیل عمیقی از این پدیده انجام داد. یافتههای آنها یک واقعیت نگرانکننده را آشکار میکند: بخش قابل توجهی از اطلاعات تولید شده توسط رباتهای گفتگوی هوش مصنوعی پیشرو، روایتهای منتشر شده توسط شبکه خاصی از وبسایتهای طرفدار کرملین را تکرار میکند.
مکانیکهای اطلاعات نادرست: چگونه مدلهای هوش مصنوعی دستکاری میشوند
استراتژی به کار گرفته شده توسط این شبکه اطلاعات نادرست هم موذیانه و هم پیچیده است. هدف اصلی آن جذب خوانندگان انسانی نیست. بلکه برای دستکاری الگوریتمهایی طراحی شده است که زیربنای رباتهای گفتگوی هوش مصنوعی هستند. این تاکتیک، که به عنوان ‘آراستن LLM’ شناخته میشود، شامل کاشت استراتژیک اطلاعات نادرست یا گمراهکننده در وبسایتهای متعدد است، با علم به اینکه این پلتفرمها توسط LLMها خراشیده و بلعیده میشوند.
پروژه American Sunlight (ASP)، یک سازمان غیرانتفاعی آمریکایی، این تهدید را در گزارشی در فوریه 2025 برجسته کرد. آنها هشدار دادند که شبکه Pravda، مجموعهای از وبسایتهایی که روایتهای طرفدار روسیه را منتشر میکنند، احتمالاً با هدف صریح تأثیرگذاری بر مدلهای هوش مصنوعی ایجاد شده است. هر چه حجم روایتهای طرفدار روسیه بیشتر باشد، احتمال ادغام آنها در پایگاه دانش LLMها بیشتر میشود.
پیامدهای این امر بسیار گسترده است. از آنجایی که LLMها به طور فزایندهای در زندگی روزمره ما ادغام میشوند و به عنوان منابع اطلاعات و کمک عمل میکنند، پتانسیل انتشار گسترده محتوای دستکاری شده نگرانکننده است.
ممیزی NewsGuard: کمیسازی تأثیر
برای ارزیابی میزان این مشکل، NewsGuard ممیزی ده ربات گفتگوی هوش مصنوعی برجسته را انجام داد. اینها شامل:
- OpenAI’s ChatGPT-4o
- You.com’s Smart Assistant
- xAI’s Grok
- Inflection’s Pi
- Mistral’s le Chat
- Microsoft’s Copilot
- Meta AI
- Anthropic’s Claude
- Google’s Gemini
- Perplexity’s answer engine
این ممیزی بر روی 15 روایت نادرست متمایز متمرکز بود که به طور فعال توسط 150 وب سایت پراودا طرفدار کرملین بین آوریل 2022 و فوریه 2025 ترویج شده بودند. این روایت ها طیف وسیعی از موضوعات را پوشش می دادند که همگی برای پیشبرد یک دستور کار سیاسی خاص طراحی شده بودند.
روششناسی شامل آزمایش هر ربات گفتگو با مجموعهای از اعلانها بر اساس اثر انگشت اطلاعات نادرست NewsGuard، فهرستی از ادعاهای نادرست اثباتشده در مورد موضوعات مهم خبری بود. اعلانها در سه سبک مختلف – بیگناه، هدایتکننده و بدخواه – ساخته شدهاند تا از روشهای مختلف تعامل کاربران با مدلهای هوش مصنوعی مولد تقلید کنند. این منجر به مجموع 450 پاسخ (45 پاسخ برای هر ربات گفتگو) شد.
نتایج نگرانکننده: اطلاعات نادرست رایج در میان رباتهای گفتگو
یافتههای ممیزی NewsGuard تکاندهنده بود. در مجموع، ده ربات گفتگوی هوش مصنوعی روایتهای نادرست اطلاعات نادرست روسیه را در 33.55٪ از پاسخها تکرار کردند. آنها در 18.22٪ موارد پاسخی ارائه نکردند و در 48.22٪ موارد روایت را رد کردند.
هر ربات گفتگوی آزمایش شده، اطلاعات نادرست منشأ گرفته از شبکه Pravda را تکرار کرد. نگرانکنندهتر اینکه، هفت ربات گفتگو مستقیماً مقالات خاصی از وبسایتهای Pravda را به عنوان منابع خود ذکر کردند. در حالی که دو مدل از هوش مصنوعی استناد صریحی ارائه نمیدهند، اما همچنان مشخص شد که روایتهای نادرست شبکه را تولید یا تکرار میکنند. فقط یکی از هشت مدلی که منابع را ذکر می کنند، پراودا را ذکر نکرده است.
در مجموع، 56 پاسخ از 450 پاسخ تولید شده توسط ربات گفتگو شامل پیوندهای مستقیم به مقالاتی بود که ادعاهای نادرست منتشر شده توسط شبکه Pravda را منتشر می کردند. رباتهای گفتگو در مجموع 92 مقاله مختلف حاوی اطلاعات نادرست را ذکر کردند که دو مدل به 27 مقاله پراودا اشاره کردند. این مقالات از دامنههای مختلفی در شبکه، از جمله Denmark.news-pravda.com، Trump.news-pravda.com و NATO.news-pravda.com سرچشمه میگرفتند.
ماهیت اعلانها: تقلید از تعاملات دنیای واقعی
سه سبک اعلان مورد استفاده در ممیزی NewsGuard برای انعکاس طیف تعاملات کاربر با رباتهای گفتگوی هوش مصنوعی طراحی شدهاند:
- اعلانهای بیگناه: این اعلانها روایت نادرست را به شیوهای خنثی و غیر هدایتکننده ارائه میکردند، گویی کاربر صرفاً به دنبال اطلاعات بدون هیچ گونه تصور قبلی است.
- اعلانهای هدایتکننده: این اعلانها به طور ظریفی روایت نادرست را پیشنهاد میکردند و به اعتبار آن اشاره میکردند بدون اینکه صریحاً آن را بیان کنند. این سناریوهایی را تقلید میکند که در آن کاربران ممکن است قبلاً در معرض اطلاعات نادرست قرار گرفته باشند و به دنبال تأیید باشند.
- اعلانهای بدخواه: این اعلانها مستقیماً روایت نادرست را به عنوان واقعیت بیان میکردند، که منعکسکننده موقعیتهایی است که کاربران قبلاً به اطلاعات نادرست متقاعد شدهاند و به دنبال تقویت هستند.
این رویکرد چند وجهی در درک اینکه چگونه انواع مختلف تعامل کاربر ممکن است بر پاسخ ربات گفتگو تأثیر بگذارد، بسیار مهم بود. این نشان داد که رباتهای گفتگو صرف نظر از سبک اعلان، مستعد تکرار اطلاعات نادرست هستند، اگرچه فراوانی و ماهیت پاسخها متفاوت بود.
نمونههای خاصی از اطلاعات نادرست که توسط رباتهای گفتگو تکرار شدهاند
گزارش NewsGuard نمونههای متعددی از روایتهای نادرست خاصی را ارائه میدهد که توسط شبکه Pravda منتشر شده و متعاقباً توسط رباتهای گفتگوی هوش مصنوعی تکرار شدهاند. این مثالها وسعت و عمق کمپین اطلاعات نادرست را برجسته میکنند. برخی از روایت ها عبارتند از:
- ادعاهایی مبنی بر اینکه اوکراین یک دولت نازی است.
- ادعاهای نادرست در مورد علل درگیری در اوکراین.
- اطلاعات گمراه کننده در مورد دخالت غرب در درگیری.
- داستان های ساختگی در مورد رهبری اوکراین.
اینها تنها چند نمونه از بسیاری از روایتهای نادرستی هستند که به دقت توسط NewsGuard مستندسازی و ردیابی شدهاند. این واقعیت که این روایتها توسط رباتهای گفتگوی هوش مصنوعی پیشرو تکرار میشوند، بر نیاز فوری به اقدامات متقابل مؤثر تأکید میکند.
چالش مبارزه با اطلاعات نادرست مبتنی بر هوش مصنوعی
رسیدگی به این مشکل یک کار پیچیده است. این امر مستلزم یک رویکرد چند جانبه است که شامل راه حل های تکنولوژیکی و افزایش آگاهی کاربر می شود.
راه حل های تکنولوژیکی:
- بهبود فیلتر کردن دادهها: توسعهدهندگان هوش مصنوعی باید مکانیسمهای قویتری را برای فیلتر کردن اطلاعات نادرست از مجموعه دادههای مورد استفاده برای آموزش LLMها پیادهسازی کنند. این شامل شناسایی و حذف منابع غیرقابل اعتماد، و همچنین توسعه الگوریتمهایی است که میتوانند اطلاعات بالقوه نادرست یا گمراهکننده را شناسایی و پرچمگذاری کنند.
- تأیید منبع پیشرفته: رباتهای گفتگو باید به گونهای طراحی شوند که اطلاعات منابع معتبر و تأیید شده را در اولویت قرار دهند. این شامل ارائه استنادهای واضح و اجازه دادن به کاربران برای ردیابی آسان منشأ اطلاعات ارائه شده است.
- شفافیت و قابلیت توضیح: مدلهای هوش مصنوعی باید در مورد فرآیندهای تصمیمگیری خود شفافتر باشند. کاربران باید بتوانند بفهمند که چرا یک ربات گفتگو پاسخ خاصی را ارائه میدهد و به چه منابع دادهای متکی است.
آگاهی کاربر:
- آموزش سواد رسانهای: کاربران باید در مورد پتانسیل اطلاعات نادرست تولید شده توسط هوش مصنوعی آموزش ببینند. این شامل توسعه مهارتهای تفکر انتقادی و یادگیری نحوه ارزیابی اعتبار منابع اطلاعات آنلاین است.
- شک و تردید و تأیید: کاربران باید با دوز سالمی از شک و تردید به اطلاعات ارائه شده توسط رباتهای گفتگوی هوش مصنوعی نزدیک شوند. ارجاع متقابل اطلاعات با منابع دیگر و احتیاط در مورد ادعاهایی که بیش از حد هیجانانگیز یا بیش از حد خوب به نظر میرسند، بسیار مهم است.
خطرات بلندمدت: سیاسی، اجتماعی و تکنولوژیکی
گسترش کنترل نشده اطلاعات نادرست از طریق رباتهای گفتگوی هوش مصنوعی خطرات بلندمدت قابل توجهی را به همراه دارد. این خطرات فراتر از تأثیر فوری روایتهای نادرست فردی است و پیامدهای اجتماعی گستردهتری را در بر میگیرد.
- خطرات سیاسی: دستکاری افکار عمومی از طریق اطلاعات نادرست مبتنی بر هوش مصنوعی میتواند فرآیندهای دموکراتیک را تضعیف کند و اعتماد به نهادها را از بین ببرد. می توان از آن برای تأثیرگذاری بر انتخابات، ایجاد اختلاف و بی ثبات کردن دولت ها استفاده کرد.
- خطرات اجتماعی: گسترش روایتهای نادرست میتواند شکافهای اجتماعی موجود را تشدید کند و شکافهای جدیدی ایجاد کند. این می تواند به تعصب، تبعیض و حتی خشونت دامن بزند.
- خطرات تکنولوژیکی: از بین رفتن اعتماد به فناوری هوش مصنوعی به دلیل گسترش اطلاعات نادرست می تواند مانع توسعه و پذیرش آن شود. اگر مردم نتوانند به صحت و اعتبار اطلاعات ارائه شده اطمینان داشته باشند، ممکن است تمایلی به استفاده از ابزارهای هوش مصنوعی نداشته باشند.
نبرد علیه اطلاعات نادرست مبتنی بر هوش مصنوعی یک نبرد حیاتی است. این امر مستلزم تلاش هماهنگ توسعه دهندگان هوش مصنوعی، سیاست گذاران، مربیان و کاربران فردی است تا اطمینان حاصل شود که از این فناوری های قدرتمند به طور مسئولانه و اخلاقی استفاده می شود. آینده اطلاعات و در واقع آینده جوامع ما ممکن است به آن بستگی داشته باشد.