AI 在信息验证中的兴起
人工智能融入社交媒体平台并不新鲜。 X 允许用户与 xAI 的 Grok 进行交互,在某种程度上,只是顺应了潮流。这与 Perplexity 的做法类似,Perplexity 在 X 上运行一个自动化帐户以提供类似的体验。
在 xAI 建立 Grok 在 X 上的自动化存在后,用户迅速开始探索其功能,提出问题并寻求答案。在印度等地区,出现了一种特别令人不安的模式:个人开始使用 Grok 来验证评论和查询,其中许多评论和查询针对特定的政治意识形态。
人工事实核查员的担忧
这种依赖 Grok(实际上是任何此类 AI 助手)进行事实核查的做法令人严重关切。这些 AI 机器人的本质是,它们可以制定听起来令人信服的回复,无论其事实准确性如何。这并非理论上的担忧; Grok 有传播假新闻和虚假信息的记录。
一个值得注意的例子是,几位州务卿恳求 Musk 对 Grok 进行关键修改。这一紧急请求是在 AI 助手在社交网络上生成误导性信息之后提出的,在选举前夕敲响了警钟。
Grok 并非个例。包括 OpenAI 的 ChatGPT 和 Google 的 Gemini 在内的其他著名聊天机器人也被发现产生了与选举相关的不准确信息。虚假信息研究人员进一步强调了滥用的可能性,他们在 2023 年透露,像 ChatGPT 这样的 AI 聊天机器人很容易被利用来生成包含误导性叙述的有说服力的文本。
真实性的假象
Poynter 国际事实核查网络 (IFCN) 主任 Angie Holan 阐述了核心问题,她说:“像 Grok 这样的 AI 助手,它们非常擅长使用自然语言,并给出听起来像人类所说的答案。这样一来,即使 AI 产品可能非常错误,它们也声称具有自然性和听起来真实的响应。这就是这里的危险所在。”
正如 Holan 所强调的,危险在于欺骗性的真实外观。人工智能模仿人类语言的能力造成了一种可信的假象,即使基础信息存在缺陷或完全捏造。
根本区别:AI 与人工事实核查员
AI 助手和人工事实核查员之间的对比是鲜明的。人工事实核查员会仔细验证信息,利用多个可靠的来源。他们以透明的方式运作,将他们的姓名和组织隶属关系附加到他们的发现中,从而确保问责制并增强可信度。
印度非营利事实核查网站 Alt News 的联合创始人 Pratik Sinha 指出,虽然 Grok 的回复目前可能看起来很有说服力,但其准确性从根本上受到其接收数据的限制。“谁来决定向它提供什么数据,这就是政府干预等问题出现的地方,”他指出,强调了数据源透明度的关键问题。
Sinha 强调,缺乏透明度是潜在危害的温床。“任何缺乏透明度的东西都会造成危害,因为任何缺乏透明度的东西都可以以任何方式被塑造。”
Grok 自己的承认:滥用的可能性
具有讽刺意味的是,Grok 在 X 上的帐户在其发布的一条回复中承认,它“可能被滥用——传播虚假信息和侵犯隐私”。
尽管承认了这一点,但自动化帐户未能向收到其答案的用户提供任何免责声明。这种遗漏使用户容易受到误导,特别是在 AI“幻觉”答案的情况下,这是 AI 领域中一个有据可查的现象,系统会生成虚假或无意义的信息。
Digital Futures Lab 的研究助理 Anushka Jain 详细阐述了这一点,她说:“它可能会编造信息以提供回应。” 这种捏造信息的倾向强调了 AI 在事实核查方面的固有局限性。
训练数据困境
Grok 的训练数据问题带来了另一层复杂性。Grok 在多大程度上利用 X 上的帖子作为训练材料,以及用于事实核查此类帖子的质量控制措施(如果有的话)存在不确定性。先前实施的一项更改似乎授予 Grok 对 X 用户数据的默认访问权限,这引发了人们对 AI 吸收和传播平台上存在的虚假信息的担忧。
公开与私下使用 AI 生成的信息
另一个重大担忧围绕着像 Grok 这样的 AI 助手在社交媒体平台上的公开性质。与通常在私人环境中发生的与 ChatGPT 等聊天机器人的交互不同,Grok 的回复是公开提供的。
这种公开传播造成了一种情况,即使一个用户意识到 AI 提供的信息可能不准确,平台上的其他用户仍然可能将其视为事实。这可能会导致严重的社会后果。
存在历史先例。例如,印度目睹了由通过 WhatsApp 传播的虚假信息引发的私刑暴民的悲惨事件。这些事件虽然早于生成式 AI 的广泛应用,但却鲜明地提醒人们,不受控制的虚假信息会带来现实世界的危险。 GenAI 的出现,凭借其生成看起来非常逼真的合成内容的能力,只会放大这些风险。
AI 的错误率
IFCN 的 Holan 警告说:“如果你看到很多这些 Grok 的答案,你会说,嘿,好吧,大多数都是正确的,这可能是真的,但肯定会有一些是错误的。有多少?这不是一小部分。一些研究表明,AI 模型的错误率高达 20%……当它出错时,它可能会真正出错,并产生现实世界的后果。”
Holan 强调的 20% 的错误率是一个很大的数字。它强调了 AI 在需要事实准确性的情况下固有的不可靠性。而且,正如她所强调的,这些错误的后果可能是深远的,远远超出了数字领域。
AI:一种工具,而不是人类判断的替代品
虽然包括 xAI 在内的 AI 公司不断改进其模型以实现更像人类的交流,但基本现实仍然存在:AI 不能也不应该取代人类的判断,特别是在事实核查的关键领域。
科技公司探索减少对人工事实核查员依赖的途径的趋势令人担忧。像 X 和 Meta 这样的平台已经接受了众包事实核查的概念,例如“社区笔记”等举措。这些转变虽然可能提供某些优势,但也引发了人们对严格的事实核查标准可能受到侵蚀的质疑。
钟摆会摆回到人工事实核查吗?
Alt News 的 Sinha 表达了一种乐观的看法,他认为人们最终将学会区分机器的输出和人工事实核查员的工作,最终重视后者的准确性和可靠性。
“我们将看到钟摆最终摆回到更多的事实核查,”IFCN 的 Holan 预测。
然而,她警告说,在此期间,由于 AI 生成信息的迅速传播,事实核查员可能会面临工作量增加的情况。挑战将是有效地应对虚假信息的浪潮,确保公众了解真相,而不是令人信服的假象。
核心问题:关心真相
问题的核心在于一个基本问题:“你真的关心什么是真实的吗?你是否只是在寻找一种听起来和感觉起来真实但实际上并不真实的东西?因为这就是 AI 助手会给你的,”Holan 说。
这个问题概括了 AI 在信息传播中的兴起所带来的关键困境。作为一个社会,我们是否愿意优先考虑便利性和真相的外观,而不是费力地核实事实?这个问题的答案最终将塑造信息的未来,决定我们是屈服于一个虚构现实的世界,还是坚持真实和准确的原则。