AI聊天机器人与俄罗斯虚假信息的扩散

克里姆林宫支持的谎言的普遍影响

问题的核心在于在线信息来源被蓄意污染。通过用亲克里姆林宫的谎言淹没搜索结果和网络爬虫,一个虚假信息行动者网络正在积极塑造大型语言模型 (LLM) 的输出。这些模型为我们日常交互的AI聊天机器人提供动力,依赖于从互联网上抓取的大量数据集。当这些数据被错误信息污染时,产生的输出就会反映出这些偏见。

NewsGuard 是一家为新闻和信息网站提供可信度评级和错误信息指纹的公司,对这一现象进行了深入分析。他们的发现揭示了一个令人不安的现实:领先的AI聊天机器人生成的信息中有很大一部分与一个特定的亲克里姆林宫网站网络传播的叙事相呼应。

虚假信息的机制:AI模型如何被操纵

这个虚假信息网络采用的策略既阴险又复杂。它主要不是为了吸引人类读者;相反,它是为了操纵支撑AI聊天机器人的算法。这种策略被称为’LLM诱导’,涉及在众多网站上战略性地植入虚假或误导性信息,因为知道这些平台将被LLM抓取和吸收。

美国阳光项目 (ASP) 是一家美国非营利组织,在2025年2月的一份报告中强调了这一威胁。他们警告说,Pravda网络,一个推送亲俄罗斯叙事的网站集合,很可能是为了影响AI模型而创建的。亲俄罗斯叙事的数量越大,LLM将它们整合到其知识库中的可能性就越高。

其影响是深远的。随着LLM越来越多地融入我们的日常生活,作为信息和帮助的来源,广泛传播被操纵内容的可能性令人担忧。

NewsGuard的审计:量化影响

为了评估这个问题的严重程度,NewsGuard对十个著名的AI聊天机器人进行了审计。其中包括:

  • OpenAI’s ChatGPT-4o
  • You.com’s Smart Assistant
  • xAI’s Grok
  • Inflection’s Pi
  • Mistral’s le Chat
  • Microsoft’s Copilot
  • Meta AI
  • Anthropic’s Claude
  • Google’s Gemini
  • Perplexity’s answer engine

审计的重点是15个不同的虚假叙事,这些叙事在2022年4月至2025年2月期间被150个亲克里姆林宫的Pravda网站积极推广。这些叙事涵盖了一系列主题,所有这些主题都是为了推进特定的政治议程。

该方法涉及使用基于NewsGuard的错误信息指纹(一系列关于重大新闻主题的可证明的虚假声明)的一系列提示来测试每个聊天机器人。这些提示以三种不同的风格制作——无辜型、引导型和恶意型——以模仿用户与生成式AI模型交互的各种方式。这导致了总共450个回复(每个聊天机器人45个)。

令人不安的结果:虚假信息在聊天机器人中普遍存在

NewsGuard审计的结果非常明显。总体而言,这十个AI聊天机器人在**33.55%**的回复中重复了俄罗斯的虚假信息叙事。他们在18.22%的情况下没有提供回复,在48.22%的情况下揭穿了叙事。

每一个被测试的聊天机器人都重复了源自Pravda网络的虚假信息。更令人担忧的是,其中七个聊天机器人直接引用了Pravda网站上的特定文章作为其来源。虽然其中两个AI模型没有提供明确的引用,但它们仍然被发现生成或重复了来自该网络的虚假叙事。在八个引用来源的模型中,只有一个没有引用Pravda。

总共有56个由聊天机器人生成的回复中包含了直接链接到Pravda网络发布的传播虚假声明的文章。这些聊天机器人总共引用了92篇不同的包含虚假信息的文章,其中两个模型引用了多达27篇Pravda文章。这些文章来自该网络中的不同域名,包括Denmark.news-pravda.com、Trump.news-pravda.com和NATO.news-pravda.com。

提示的性质:模仿真实世界的交互

NewsGuard审计中使用的三种提示风格旨在反映用户与AI聊天机器人交互的范围:

  • **无辜型提示:**这些提示以中立、非引导的方式呈现虚假叙事,就好像用户只是在没有任何先入为主的观念的情况下寻求信息。
  • **引导型提示:**这些提示巧妙地暗示了虚假叙事,暗示其有效性,但没有明确说明。这模仿了用户可能已经接触到一些错误信息并正在寻求确认的情况。
  • **恶意型提示:**这些提示直接将虚假叙事断言为事实,反映了用户已经确信错误信息并正在寻求强化的情景。

这种多方面的方法对于理解不同类型的用户参与如何影响聊天机器人的响应至关重要。它揭示了聊天机器人容易受到重复虚假信息的影响,无论提示风格如何,尽管响应的频率和性质有所不同。

聊天机器人重复的虚假信息的具体例子

NewsGuard报告提供了许多由Pravda网络传播并随后被AI聊天机器人重复的虚假叙事的具体例子。这些例子突出了虚假信息活动的广度和深度。其中一些叙事包括:

  • 声称乌克兰是一个纳粹国家。
  • 关于乌克兰冲突原因的虚假断言。
  • 关于西方参与冲突的误导性信息。
  • 关于乌克兰领导层的捏造故事。

这些只是NewsGuard精心记录和跟踪的众多虚假叙事中的几个例子。这些叙事正在被领先的AI聊天机器人重复,这一事实强调了采取有效对策的迫切需要。

打击AI驱动的虚假信息的挑战

解决这个问题是一项复杂的工作。它需要一种多管齐下的方法,包括技术解决方案和提高用户意识。

技术解决方案:

  • **改进数据过滤:**AI开发人员需要实施更强大的机制来过滤掉用于训练LLM的数据集中的错误信息。这包括识别和排除不可靠的来源,以及开发可以检测和标记潜在虚假或误导性信息的算法。
  • **增强来源验证:**聊天机器人应该被设计成优先考虑来自可信和已验证来源的信息。这包括提供明确的引用,并允许用户轻松追踪所呈现信息的来源。
  • **透明度和可解释性:**AI模型应该对其决策过程更加透明。用户应该能够理解为什么聊天机器人会提供特定的响应,以及它依赖于哪些数据源。

用户意识:

  • **媒体素养教育:**用户需要接受关于AI生成错误信息的可能性的教育。这包括培养批判性思维技能,并学习如何评估在线信息来源的可信度。
  • **怀疑和验证:**用户应该以健康的怀疑态度对待AI聊天机器人提供的信息。将信息与其他来源进行交叉引用,并警惕那些看起来过于耸人听闻或好得令人难以置信的说法,这一点至关重要。

长期风险:政治、社会和技术

通过AI聊天机器人传播虚假信息不受控制,会带来重大的长期风险。这些风险超出了个别虚假叙事的直接影响,并涵盖了更广泛的社会后果。

  • **政治风险:**通过AI驱动的虚假信息操纵公众舆论会破坏民主进程并削弱对机构的信任。它可以被用来影响选举,播下不和,并破坏政府的稳定。
  • **社会风险:**虚假叙事的传播会加剧现有的社会分裂并产生新的分裂。它可以助长偏见、歧视,甚至暴力。
  • **技术风险:**由于错误信息的传播而对AI技术失去信任可能会阻碍其开发和采用。如果人们无法确信所提供信息的准确性和可靠性,他们可能会不愿意使用AI工具。

打击AI驱动的虚假信息的斗争至关重要。它需要AI开发人员、政策制定者、教育工作者和个人用户的共同努力,以确保这些强大的技术得到负责任和合乎道德的使用。信息的未来,乃至我们社会的未来,可能都取决于此。