俄羅斯宣傳網絡利用AI聊天機器人散播假訊息

‘LLM 馴化’ 的機制

Pravda 網絡透過約 150 個假新聞網站運作。然而,這些網站並非針對人類讀者設計。它們的流量極低——大多數頁面每月瀏覽量少於 1,000 次——主要目的是向 AI 系統提供內容。這種策略代表了一種新的假訊息傳播方法,超越了直接針對人類讀者的傳統方法。

這種策略被稱為「LLM 馴化」,描述了蓄意操縱 AI 訓練數據的行為。該網絡通過大量發布針對搜索引擎優化 (SEO) 的內容來實現這一目標。這確保了宣傳內容容易被 AI 模型吸收和再傳播,影響其輸出,並可能塑造公眾認知。

John Mark Dougan,一位居住在莫斯科的美國人,被 NewsGuard 指稱為涉嫌支持俄羅斯假訊息活動,他在當地一次會議上解釋了其基本原理:「這些資訊越多元,就越能影響 AI 的訓練和未來。」這句話凸顯了該行動的陰險本質,旨在巧妙地破壞 AI 系統建立的基礎數據。

行動的規模和範圍

Pravda 網絡活動的規模驚人。僅在 2024 年,這些網站就在 49 個國家/地區發布了約 360 萬篇文章。域名經過精心挑選,以模仿合法新聞來源,例如 NATO.News-Pravda.com、Trump.News-Pravda.com 和 Macron.News-Pravda.com。這種模仿增加了一層欺騙性,使普通觀察者更難以區分真實內容和捏造內容。

內容本身涵蓋廣泛的主題,但始終宣揚親俄敘事並削弱西方觀點。該網絡至少自 2022 年 4 月以來一直活躍,NewsGuard 的分析重點關注了 Pravda 網絡在該時間到 2025 年 2 月之間傳播的 15 個可驗證的虛假故事。

AI 聊天機器人的脆弱性

NewsGuard 的調查涉及測試幾個著名的 AI 聊天機器人,以評估它們對 Pravda 網絡假訊息的脆弱性。測試的系統包括:

  • OpenAI 的 ChatGPT-4o
  • You.com 的 Smart Assistant
  • xAI 的 Grok
  • Inflection 的 Pi
  • Mistral 的 le Chat
  • Microsoft 的 Copilot
  • Meta AI
  • Anthropic 的 Claude
  • Google 的 Gemini
  • Perplexity

結果令人擔憂。AI 聊天機器人在 33.5% 的案例中接受了來自 Pravda 網絡的虛假敘述。雖然系統在 48.2% 的情況下正確識別出俄羅斯內容為假訊息,但它們有時會引用誤導性來源,可能賦予它們不應有的可信度。其餘 18.2% 的回應沒有定論,進一步凸顯了在 AI 生成內容時代辨別真假訊息的挑戰。

對抗 AI 驅動的假訊息的挑戰

打擊這種類型的操縱是一個重大挑戰。阻止已知假訊息網站的傳統方法被證明是無效的。當局阻止 Pravda 域名時,新的域名會迅速出現,這表明該網絡的敏捷性和韌性。

此外,假訊息同時通過多個渠道流動,通常不同的網絡站點會互相重複內容。這創建了一個複雜的互連來源網絡,使得難以從根源上隔離和消除宣傳。僅僅阻止網站對於更廣泛、協調一致的活動提供的保護有限。

更廣泛的背景:國家支持的 AI 操縱

Pravda 網絡的活動並非孤立事件。它們與國家支持的利用 AI 進行假訊息宣傳的更廣泛模式一致。OpenAI 最近的一項研究顯示,來自俄羅斯、中國、伊朗和以色列的國家支持的行為者已經嘗試使用 AI 系統進行宣傳活動。這些行動通常將 AI 生成的內容與傳統的手動創建的材料相結合,模糊了真實訊息和被操縱訊息之間的界限。

在政治操縱中使用 AI 並不僅限於國家行為者。政治團體,例如德國的極右翼 AFD 黨,也被觀察到使用 AI 圖像模型進行宣傳。甚至像唐納德·特朗普這樣的人物也參與了 AI 生成的內容,既作為消費者,又矛盾地將真實訊息標記為 AI 生成的假訊息。這種策略被認為是一種反宣傳形式,播下了對所有在線訊息的不信任,可能導致個人僅僅依賴可信的人物,而不管事實準確性如何。

甚至 AI 模型本身的設計也可能受到國家議程的影響。例如,中國的 AI 模型被發現預裝了審查和宣傳內容,反映了中國政府的政治優先事項。

深入探討:虛假敘事的具體例子

雖然 NewsGuard 報告沒有詳細說明 Pravda 網絡傳播的每一個虛假敘事,但使用可驗證的虛假故事的方法表明了一種傳播錯誤訊息的模式,旨在:

  1. 破壞西方機構: 故事可能會錯誤地將北約描繪成具有侵略性或不穩定,或捏造涉及西方領導人的醜聞。
  2. 促進親俄情緒: 敘事可能會誇大俄羅斯的軍事成功,淡化其侵犯人權的行為,或為其在全球舞台上的行動辯護。
  3. 播下不和與分裂的種子: 內容可能旨在加劇西方國家現有的社會和政治緊張局勢,擴大分裂性問題並促進兩極分化。
  4. 扭曲特定事件的真相: 關於選舉、衝突或國際事件等事件的虛假訊息可能會被傳播,扭曲敘事以支持親俄的解釋。

貫穿始終的主線是操縱訊息以服務於特定的地緣政治議程。AI 的使用擴大了這些敘事的影響範圍和潛在影響,使其更難以檢測和反擊。

長期影響

這種 AI 驅動的假訊息的影響是深遠的。對訊息來源的信任度下降、操縱公眾輿論的可能性以及民主進程的不穩定都是嚴重的問題。隨著 AI 系統越來越多地融入我們的日常生活,區分真假訊息的能力變得越來越重要。

「LLM 馴化」技術代表了訊息戰領域的重大升級。它突出了 AI 系統易受操縱的脆弱性,以及需要針對這種新興威脅建立強大的防禦。挑戰不僅在於識別和阻止假訊息來源,還在於制定策略來讓 AI 模型免受這些微妙但普遍存在的影響形式的影響。這需要一種多方面的方法,包括:

  • 增強 AI 素養: 教育公眾了解 AI 生成假訊息的可能性,並培養批判性思維能力。
  • 改進 AI 檢測工具: 開發更複雜的方法來識別和標記 AI 生成的內容和假訊息。
  • 加強 AI 訓練數據: 實施措施以確保 AI 訓練數據的完整性和多樣性,使其更能抵抗操縱。
  • 國際合作: 促進政府、科技公司和研究人員之間的合作,以應對這一全球挑戰。
  • 提高透明度: AI 開發人員應該對所使用的訓練數據以及其模型中可能存在的潛在偏差保持透明。
  • 演算法問責制: 讓 AI 開發人員對其系統的輸出負責,特別是當這些輸出被用於傳播假訊息時。

與 AI 驅動的假訊息的鬥爭是一場複雜且不斷發展的鬥爭。它需要個人、組織和政府的共同努力,以維護訊息的完整性並保護知情決策的基礎。Pravda 網絡的活動清楚地提醒人們所涉及的利害關係以及應對這一日益嚴重的威脅的緊迫性。知情公眾話語的未來,甚至可能是民主社會的穩定,可能取決於我們成功應對這種新形式操縱的能力。挑戰不僅是技術性的;它也是社會性的,需要在數位時代重新致力於真相、準確性和批判性思維。