克里姆林宮支持的謊言的普遍影響
問題的核心在於蓄意污染線上訊息來源。透過用親克里姆林宮的謊言淹沒搜尋結果和網路爬蟲,一個假訊息行動者網絡正在積極塑造大型語言模型 (LLMs) 的輸出。這些模型為我們每天互動的 AI 聊天機器人提供動力,依賴從網際網路抓取的大量數據集。當這些數據被錯誤訊息污染時,產生的輸出就會反映這些偏見。
NewsGuard 是一家為新聞和訊息網站提供可信度評級和錯誤訊息指紋的公司,對此現象進行了深入分析。他們的發現揭示了一個令人不安的現實:主要 AI 聊天機器人產生的訊息中有很大一部分與特定親克里姆林宮網站網絡傳播的敘述相呼應。
假訊息的機制:AI 模型如何被操縱
這個假訊息網絡採用的策略既陰險又複雜。它主要不是為了吸引人類讀者;相反,它是為了操縱支撐 AI 聊天機器人的演算法。這種策略被稱為 ‘LLM 馴化’,涉及在眾多網站上策略性地植入虛假或誤導性訊息,因為知道這些平台將被 LLM 抓取和吸收。
美國陽光計畫 (ASP) 是一家美國非營利組織,在 2025 年 2 月的一份報告中強調了這一威脅。他們警告說,Pravda 網絡,一個推動親俄羅斯敘事的網站集合,很可能是為了影響 AI 模型而創建的。親俄羅斯敘事的數量越大,LLM 將其整合到其知識庫中的可能性就越高。
這的影響是深遠的。隨著 LLM 越來越多地融入我們的日常生活,作為訊息和協助的來源,廣泛傳播被操縱內容的可能性令人擔憂。
NewsGuard 的審計:量化影響
為了評估這個問題的嚴重程度,NewsGuard 對十個著名的 AI 聊天機器人進行了審計。其中包括:
- OpenAI’s ChatGPT-4o
- You.com’s Smart Assistant
- xAI’s Grok
- Inflection’s Pi
- Mistral’s le Chat
- Microsoft’s Copilot
- Meta AI
- Anthropic’s Claude
- Google’s Gemini
- Perplexity’s answer engine
審計的重點是 15 個不同的虛假敘事,這些敘事在 2022 年 4 月至 2025 年 2 月期間由 150 個親克里姆林宮的 Pravda 網站積極推廣。這些敘事涵蓋了一系列主題,所有這些主題都是為了推進特定的政治議程。
該方法涉及使用基於 NewsGuard 的錯誤訊息指紋的一系列提示來測試每個聊天機器人,這是一個關於重大新聞主題的可證明虛假聲明的目錄。這些提示以三種不同的風格製作——無辜、引導和惡意——以模仿用戶與生成式 AI 模型互動的各種方式。這導致了總共 450 個回應(每個聊天機器人 45 個)。
令人不安的結果:假訊息在聊天機器人中普遍存在
NewsGuard 審計的結果非常明顯。總體而言,十個 AI 聊天機器人在 33.55% 的回應中重複了俄羅斯的虛假訊息敘事。他們在 18.22% 的情況下沒有提供回應,在 48.22% 的情況下揭穿了敘事。
每個被測試的聊天機器人都重複了 源自 Pravda 網絡的假訊息。更令人擔憂的是,其中七個聊天機器人直接引用 Pravda 網站的特定文章作為其來源。雖然其中兩個 AI 模型沒有提供明確的引用,但它們仍然被發現生成或重複來自該網絡的虛假敘事。在八個引用來源的模型中,只有一個沒有引用 Pravda。
總共有 56 個由聊天機器人產生的回應(在 450 個回應中)包含指向 Pravda 網絡發布的傳播虛假聲明的文章的直接連結。聊天機器人總共引用了 92 篇不同的包含假訊息的文章,其中兩個模型引用了多達 27 篇 Pravda 文章。這些文章來自該網絡中的不同域名,包括 Denmark.news-pravda.com、Trump.news-pravda.com 和 NATO.news-pravda.com。
提示的性質:模仿真實世界的互動
NewsGuard 審計中使用的三種提示風格旨在反映用戶與 AI 聊天機器人互動的範圍:
- 無辜提示: 這些提示以中立、非引導的方式呈現虛假敘事,就好像用戶只是在尋求訊息而沒有任何先入為主的觀念。
- 引導提示: 這些提示巧妙地暗示了虛假敘事,暗示其有效性但沒有明確說明。這模仿了用戶可能已經接觸到一些錯誤訊息並正在尋求確認的情況。
- 惡意提示: 這些提示直接斷言虛假敘事是事實,反映了用戶已經確信錯誤訊息並正在尋求強化的情況。
這種多方面的方法對於理解不同類型的用戶參與如何影響聊天機器人的回應至關重要。它揭示了聊天機器人容易受到重複假訊息的影響,無論提示風格如何,儘管回應的頻率和性質各不相同。
聊天機器人重複的假訊息的具體例子
NewsGuard 報告提供了許多由 Pravda 網絡傳播並隨後被 AI 聊天機器人重複的特定虛假敘事的例子。這些例子突出了假訊息活動的廣度和深度。其中一些敘事包括:
- 聲稱烏克蘭是一個納粹國家。
- 關於烏克蘭衝突原因的虛假斷言。
- 關於西方參與衝突的誤導性訊息。
- 關於烏克蘭領導層的捏造故事。
這些只是 NewsGuard 精心記錄和追蹤的眾多虛假敘事中的幾個例子。這些敘事正在被領先的 AI 聊天機器人重複的事實強調了採取有效對策的迫切需要。
打擊 AI 驅動的假訊息的挑戰
解決這個問題是一項複雜的任務。它需要一種多管齊下的方法,包括技術解決方案和提高用戶意識。
技術解決方案:
- 改進數據過濾: AI 開發人員需要實施更強大的機制來過濾掉用於訓練 LLM 的數據集中的錯誤訊息。這涉及識別和排除不可靠的來源,以及開發可以檢測和標記潛在虛假或誤導性訊息的演算法。
- 增強來源驗證: 聊天機器人應設計為優先考慮來自可信和已驗證來源的訊息。這包括提供明確的引用並允許用戶輕鬆追蹤所呈現訊息的來源。
- 透明度和可解釋性: AI 模型應該對其決策過程更加透明。用戶應該能夠理解為什麼聊天機器人會提供特定的回應以及它所依賴的數據來源。
用戶意識:
- 媒體素養教育: 用戶需要了解 AI 生成的錯誤訊息的可能性。這包括培養批判性思維技能和學習如何評估線上訊息來源的可信度。
- 懷疑和驗證: 用戶應該以健康的懷疑態度對待 AI 聊天機器人提供的訊息。將訊息與其他來源進行交叉引用,並警惕那些看起來過於聳人聽聞或好得令人難以置信的說法,這一點至關重要。
長期風險:政治、社會和技術
透過 AI 聊天機器人傳播的假訊息如果不加以控制,會帶來重大的長期風險。這些風險超出了個別虛假敘事的直接影響,並涵蓋了更廣泛的社會後果。
- 政治風險: 透過 AI 驅動的假訊息操縱公眾輿論會破壞民主進程並削弱對機構的信任。它可以用來影響選舉、製造不和以及破壞政府的穩定。
- 社會風險: 虛假敘事的傳播會加劇現有的社會分歧並產生新的分歧。它可以助長偏見、歧視甚至暴力。
- 技術風險: 由於錯誤訊息的傳播而導致對 AI 技術的信任度下降可能會阻礙其開發和採用。如果人們無法確信所提供訊息的準確性和可靠性,他們可能會不願意使用 AI 工具。
打擊 AI 驅動的假訊息的鬥爭至關重要。它需要 AI 開發人員、政策制定者、教育工作者和個人用戶的共同努力,以確保這些強大的技術得到負責任和合乎道德的使用。訊息的未來,乃至我們社會的未來,可能都取決於此。