准确性的假象
搜索引擎的基本承诺是将用户与可信来源联系起来。现在,这个承诺正在被侵蚀。人工智能驱动的搜索工具越来越注重速度而非实质内容,给出的答案看似可信,但缺乏可验证证据的基本支持。我们正在目睹的是从一个引导用户获取可靠信息的系统,到一个制造回应的系统的转变,通常很少考虑其真实性。
这不仅仅是偶尔出错的问题。这是一个系统性问题。《哥伦比亚新闻评论》(CJR) 的研究表明,人工智能搜索引擎不仅仅是在犯错;它们正在积极构建一个脱离可验证来源的现实。它们从网络上抓取内容,但不是将用户引导到原始来源——那些煞费苦心制作和发布信息的网站——而是提供即时的、通常是捏造的答案。
流量流失和幽灵引用
这种做法的后果是深远的。最直接的影响是原始信息来源的流量大幅减少。投入时间和资源创建内容的网站、新闻机构和研究人员发现自己被绕过了。用户直接从人工智能那里得到答案,无需访问提供信息的网站。
另一项独立研究证实了这一令人担忧的趋势,发现来自人工智能生成的搜索结果和聊天机器人的点击率远低于来自 Google 等传统搜索引擎的点击率。这意味着在线内容的命脉——接触受众的能力——正在慢慢被扼杀。
但问题还要更深一层。这些人工智能工具不仅没有注明来源;它们还经常创建幽灵引用。它们生成的链接指向不存在的网页,或者指向已损坏或不相关的 URL。这类似于学生写研究论文并捏造来源来支持他们的主张。这不仅仅是草率;这是对知识诚实的根本违背。
深入探究欺骗
CJR 的研究仔细分析了几种领先的 AI 搜索模型的性能。研究结果令人深感不安。Google 的 Gemini 和 xAI 的 Grok 3——人工智能搜索领域的两个主要参与者——生成的一半以上的引文都指向捏造的或无法访问的网页。这不是一个小故障;这是一个系统性故障。
而且问题不仅仅局限于引文。总体而言,聊天机器人在超过 60% 的情况下提供了不正确的信息。在评估的模型中,Grok 3 是最糟糕的,其 94% 的回复都包含不准确之处。Gemini 虽然表现稍好,但仍然只能在每十次尝试中提供一次完全正确的答案。即使是 Perplexity,在测试的模型中表现最为准确,仍然有 37% 的时间返回不正确的回复。
这些数字不仅仅是统计数据;它们代表了信息可靠性的根本崩溃。它们表明,那些旨在帮助我们驾驭复杂数字世界的工具,实际上正在将我们引入歧途。
无视规则:机器人排除协议
该研究的作者发现了这种人工智能驱动的欺骗的另一个令人不安的方面。一些人工智能模型似乎故意无视机器人排除协议。该协议是一种标准的、广泛采用的机制,允许网站控制其网站的哪些部分可以被自动机器人访问和抓取。这是网站保护其内容并管理其使用方式的一种方式。
人工智能搜索引擎无视这一协议的事实引发了严重的道德问题。这表明它无视内容创建者的权利,并愿意未经许可利用在线信息。这种行为破坏了网络的基础,而网络依赖于信息访问和知识产权保护之间的微妙平衡。
过去警告的回声
CJR 研究的结果并非孤立存在。它们与 2024 年 11 月发表的一项先前研究相呼应,该研究侧重于 ChatGPT 的搜索能力。早期的调查揭示了一种一致的模式:自信但不正确的回复、误导性的引文和不可靠的信息检索。换句话说,CJR 发现的问题并不新鲜;它们是持续存在的系统性问题。
信任和自主权的侵蚀
该领域的专家一段时间以来一直在对生成式人工智能的危险发出警告。像 Chirag Shah 和 Emily M. Bender 这样的评论家提出了担忧,认为人工智能搜索引擎正在侵蚀用户的自主权,放大信息访问中的偏见,并且经常呈现误导性甚至有害的答案,用户可能会不加质疑地接受。
核心问题在于,这些人工智能模型被设计成即使在错误的时候也听起来很权威。它们是在大量文本和代码数据集上训练的,并且能够生成以惊人的流畅性模仿人类语言的响应。但这种流畅性可能是具有欺骗性的。它可以掩盖这样一个事实,即基础信息是有缺陷的、捏造的或根本不正确的。
错误信息的机制
CJR 的研究涉及对 1,600 个查询的详细分析,旨在比较不同的生成式 AI 搜索模型如何检索信息。研究人员重点关注关键要素,如标题、出版商、出版日期和 URL。他们测试了一系列模型,包括 ChatGPT Search、Microsoft CoPilot、DeepSeek Search、Perplexity(及其专业版)、xAI 的 Grok-2 和 Grok-3 Search 以及 Google Gemini。
测试方法非常严格。研究人员使用了来自 20 个不同出版商的 10 篇随机选择的文章的直接摘录。这种方法确保了查询基于真实世界的内容,并且模型正在根据其准确检索和表示该内容的能力进行评估。
如前所述,结果描绘了人工智能驱动搜索现状的严峻图景。这些工具正日益成为我们获取信息的主要门户,但它们明显不可靠,容易捏造,而且通常不尊重它们所依赖的来源。
对信息未来的影响
这种广泛传播的错误信息的含义是深远的。如果我们不能信任我们用来查找信息的工具,我们如何才能做出明智的决定?我们如何才能进行有意义的辩论?我们如何才能让权力承担责任?
人工智能驱动的搜索的兴起,及其固有的缺陷和偏见,对我们信息生态系统的结构构成了重大威胁。它破坏了新闻机构、研究人员和其他内容创建者的可信度。它侵蚀了公众对机构的信任。它赋予了那些试图传播虚假信息和操纵公众舆论的人权力。
我们面临的挑战不仅仅是提高人工智能搜索引擎的准确性。而是要从根本上重新思考我们在数字时代寻找信息的方式。我们需要优先考虑透明度、问责制和对信息来源的尊重。我们需要开发工具和策略,让用户能够批判性地评估他们在网上遇到的信息。我们需要培养一种怀疑和批判性思维的文化,在这种文化中,我们不仅仅是被动的信息接收者,而是积极参与追求真理的人。知情话语的未来,甚至可能民主本身的未来,都取决于此。
人工智能驱动搜索中的错误信息危机不仅仅是一个技术问题;这是一个社会问题。它需要多方面的回应,不仅涉及工程师和开发人员,还涉及记者、教育工作者、政策制定者和广大公众。我们必须共同努力,建立一个更可靠、更值得信赖、更透明的信息生态系统,一个服务于知情公民的需求,而不是虚假信息的传播者的生态系统。
目前的轨迹是不可持续的。如果人工智能搜索继续将速度和便利性置于准确性和真实性之上,我们就有可能创造一个错误信息至上的世界,在这个世界中,客观现实的概念变得越来越难以捉摸。赌注太高,不能让这种情况发生。