“LLM 操控”的机制
Pravda 网络通过大约 150 个虚假新闻网站运作。然而,这些网站并非面向人类读者设计。它们的页面流量极低——大多数页面每月访问量少于 1,000 次——主要目的是向 AI 系统提供内容。这种策略代表了一种新的虚假信息传播方法,超越了直接针对人类读者的传统方法。
这种策略被称为“LLM 操控”,指的是蓄意操纵 AI 训练数据。该网络通过大量发布针对搜索引擎优化 (SEO) 的内容来实现这一目标。这确保了宣传内容容易被 AI 模型吸收和再传播,从而影响其输出,并可能影响公众认知。
John Mark Dougan 是一位居住在莫斯科的美国人,NewsGuard 称其涉嫌支持俄罗斯的虚假信息宣传活动,他在当地一次会议上解释了其基本原理:“这些信息越多样化,就越能影响 AI 的训练和未来。” 这句话凸显了该行动的阴险本质,旨在巧妙地破坏 AI 系统所依赖的基础数据。
行动的规模和范围
Pravda 网络活动的规模惊人。仅在 2024 年,这些网站就在 49 个国家/地区发布了约 360 万篇文章。域名经过精心挑选,以模仿合法新闻来源,例如 NATO.News-Pravda.com、Trump.News-Pravda.com 和 Macron.News-Pravda.com。这种模仿增加了一层欺骗性,使得普通观察者更难区分真实内容和虚假内容。
内容本身涵盖广泛的主题,但始终宣扬亲俄叙事并削弱西方观点。该网络至少从 2022 年 4 月开始活跃,NewsGuard 的分析重点关注了 Pravda 网络在 2022 年 4 月至 2025 年 2 月期间发布的 15 个可验证的虚假故事。
AI 聊天机器人的脆弱性
NewsGuard 的调查涉及测试几个著名的 AI 聊天机器人,以评估它们对 Pravda 网络虚假信息的脆弱性。测试的系统包括:
- OpenAI 的 ChatGPT-4o
- You.com 的 Smart Assistant
- xAI 的 Grok
- Inflection 的 Pi
- Mistral 的 le Chat
- Microsoft 的 Copilot
- Meta AI
- Anthropic 的 Claude
- Google 的 Gemini
- Perplexity
结果令人担忧。在 33.5% 的案例中,AI 聊天机器人接受了来自 Pravda 网络的虚假叙述。虽然这些系统在 48.2% 的情况下正确地将俄罗斯内容识别为虚假信息,但它们有时会引用误导性来源,这可能会给它们带来不应有的可信度。其余 18.2% 的回复没有定论,进一步凸显了在 AI 生成内容的时代辨别真假的挑战。
打击 AI 驱动的虚假信息的挑战
打击这种类型的操纵提出了重大挑战。屏蔽已知虚假信息网站的传统方法被证明是无效的。当当局屏蔽 Pravda 域名时,新的域名会迅速出现,这表明该网络具有敏捷性和弹性。
此外,虚假信息同时通过多个渠道传播,不同的网络站点经常相互重复内容。这创建了一个复杂的相互关联的来源网络,使得难以从根源上隔离和消除宣传。仅仅屏蔽网站对于更广泛、协调一致的活动提供的保护有限。
更广泛的背景:国家支持的 AI 操纵
Pravda 网络的活动并非孤立事件。它们与国家支持的利用 AI 进行虚假信息宣传的更广泛模式相一致。OpenAI 最近的一项研究显示,来自俄罗斯、中国、伊朗和以色列的国家支持的行为者已经尝试使用 AI 系统进行宣传活动。这些行动通常将 AI 生成的内容与传统的手动创建的材料相结合,模糊了真实信息和被操纵信息之间的界限。
在政治操纵中使用 AI 并不局限于国家行为者。政治团体,例如德国极右翼的 AFD 党,也被观察到使用 AI 图像模型进行宣传。甚至像唐纳德·特朗普这样的人物也参与了 AI 生成的内容,既作为消费者,又自相矛盾地将真实信息标记为 AI 生成的假信息。这种策略被认为是一种反宣传形式,播下了对所有在线信息的不信任,可能会促使个人仅仅依赖可信的人物,而不管事实准确性如何。
甚至 AI 模型本身的设计也可能受到国家议程的影响。例如,中国的 AI 模型被发现预装了审查和宣传内容,反映了中国政府的政治优先事项。
深入分析:虚假叙事的具体例子
虽然 NewsGuard 的报告没有详细说明 Pravda 网络传播的每一个虚假叙事,但使用可验证的虚假故事的方法表明了一种传播错误信息的模式,旨在:
- 破坏西方机构: 故事可能会错误地将北约描绘成具有侵略性或不稳定的组织,或者捏造涉及西方领导人的丑闻。
- 宣扬亲俄情绪: 叙事可能会夸大俄罗斯的军事成功,淡化其侵犯人权的行为,或为其在全球舞台上的行动辩护。
- 播下不和与分裂的种子: 内容可能旨在加剧西方国家内部现有的社会和政治紧张局势,放大分裂性问题并促进两极分化。
- 扭曲特定事件的真相: 可能会传播有关选举、冲突或国际事件等事件的虚假信息,扭曲叙事以支持亲俄的解释。
一贯的主线是操纵信息以服务于特定的地缘政治议程。AI 的使用扩大了这些叙事的覆盖范围和潜在影响,使其更难被发现和反击。
长期影响
这种 AI 驱动的虚假信息的传播具有深远的影响。对信息来源的信任受到侵蚀、操纵公众舆论的可能性以及民主进程的不稳定都是严重的问题。随着 AI 系统日益融入我们的日常生活,区分真假的能力变得越来越重要。
“LLM 操控”技术代表了信息战领域的重大升级。它凸显了 AI 系统易受操纵的脆弱性,以及针对这种新兴威胁建立强大防御的必要性。挑战不仅在于识别和阻止虚假信息来源,还在于制定策略来让 AI 模型免受这些微妙但普遍的影响形式的影响。这需要一种多方面的方法,包括:
- **提高 AI 素养:**教育公众了解 AI 生成虚假信息的可能性,并培养批判性思维能力。
- **改进 AI 检测工具:**开发更复杂的方法来识别和标记 AI 生成的内容和虚假信息。
- **加强 AI 训练数据:**实施措施以确保 AI 训练数据的完整性和多样性,使其更能抵抗操纵。
- **国际合作:**促进政府、科技公司和研究人员之间的合作,以应对这一全球挑战。
- 提高透明度: AI 开发者应该对所使用的训练数据以及其模型中可能存在的潜在偏差保持透明。
- 算法问责制: 让 AI 开发者对其系统的输出负责,特别是当这些输出被用于传播虚假信息时。
打击 AI 驱动的虚假信息的斗争是一场复杂且不断发展的斗争。它需要个人、组织和政府的共同努力,以维护信息的完整性并保护知情决策的基础。Pravda 网络的活动清楚地提醒人们所涉及的利害关系以及应对这一日益增长的威胁的紧迫性。知情的公众话语的未来,甚至可能是民主社会的稳定,可能取决于我们成功应对这种新形式操纵的能力。挑战不仅是技术上的,也是社会上的,需要在数字时代重新致力于真实、准确和批判性思维。