不准确引用的问题
Tow 数字新闻中心进行了这项研究,其结果令人担忧。研究表明,大多数主要的 AI 搜索引擎在正确引用新闻文章方面存在困难。这些工具经常编造参考链接,或者在被问及来源时根本无法提供答案。
该研究以图表的形式直观地展示了各种 AI 聊天机器人的表现,揭示了它们在提供相关引文方面普遍缺乏可靠性。值得注意的是,xAI 的 Grok 聊天机器人(Elon Musk 曾将其宣传为’最真实’的 AI)在这方面是最不准确或最不可靠的资源之一。
报告指出:
‘总体而言,聊天机器人对超过 60% 的查询提供了不正确的答案。在不同的平台上,不准确的程度各不相同,Perplexity 对 37% 的查询回答不正确,而 Grok 的错误率要高得多,对 94% 的查询回答不正确。’
这突显了不同 AI 工具在准确性水平上的显著差异,其中一些工具的表现明显逊于其他工具。
访问受限内容
报告揭示的另一个令人担忧的方面与 AI 工具访问和提供来自已采取措施防止 AI 抓取的来源的信息的能力有关。
报告指出:
‘在某些情况下,聊天机器人要么错误地回答了允许它们访问其内容的发布者的查询,要么拒绝回答。另一方面,它们有时会正确回答关于发布者内容的查询,而它们本不应该访问这些内容。’
这一观察结果表明,某些 AI 提供商可能没有遵守旨在阻止它们访问受版权保护材料的 robots.txt 命令。这引发了关于 AI 工具规避这些限制的道德和法律影响的问题。
越来越依赖 AI 进行研究
核心问题在于人们越来越依赖 AI 工具作为搜索引擎,尤其是在年轻用户中。许多年轻人现在将 ChatGPT 作为他们的主要研究工具。鉴于 AI 工具在提供准确信息和可靠地教育用户关键主题方面表现出的不可靠性,这一趋势令人担忧。
研究结果清楚地提醒人们,AI 生成的回复并不总是有价值的,甚至不一定可用。真正的危险在于将这些工具宣传为真正研究的替代品和获取知识的捷径。特别是对于年轻用户而言,这可能会导致一代人信息匮乏、能力不足,并且过度依赖可能存在缺陷的系统。
AI 是一种工具,而不是解决方案
著名商人 Mark Cuban 在 SXSW 的一次会议上有效地总结了这一挑战。他强调:
‘AI 永远不是答案。AI 是工具。无论你拥有什么技能,你都可以使用 AI 来放大它们。’
Cuban 的观点强调,虽然 AI 工具可以提供优势,并且应该探索其增强性能的潜力,但它们并不是独立的解决方案。
AI 可以生成视频内容,但它缺乏开发引人入胜的叙事的能力,而这是最重要的元素。同样,AI 可以生成代码来帮助开发应用程序,但它无法构建实际的应用程序本身。
这些限制突出了批判性思维和人类专业知识不可或缺的作用。AI 输出无疑可以协助完成各种任务,但它们不能取代对人类智慧和技能的基本需求。
需要批判性评估和技能发展
特别是在这项研究的背景下,令人担忧的是,年轻人被引导相信 AI 工具可以提供明确的答案。然而,这项研究以及许多其他研究工作一致表明,AI 并不特别擅长这一点。
与其将 AI 宣传为传统研究方法的替代品,不如将重点放在教育个人如何利用这些系统来增强他们现有的能力。为了有效地利用 AI,用户必须首先具备强大的研究和分析能力,以及相关领域的专业知识。
更深入地探讨影响
这项研究的影响超出了对不准确引用的直接关注。它提出了更广泛的问题,即 AI 在塑造我们对世界的理解中的作用,以及错误信息迅速传播的可能性。
1. 对信息来源信任的侵蚀:
当 AI 工具持续提供不正确或捏造的引文时,它会侵蚀对整个信息生态系统的信任。用户可能会对所有来源越来越怀疑,从而难以区分可信和不可靠的信息。
2. 对教育和学习的影响:
依赖 AI 工具进行研究,尤其是在年轻用户中,会对教育和学习产生不利影响。学生可能会对学科形成肤浅的理解,缺乏有效评估信息所需的批判性思维能力。
3. AI 开发者的道德责任:
这项研究的结果强调了 AI 开发者的道德责任。他们必须在其系统中优先考虑准确性和透明度,并确保 AI 工具不被用于传播错误信息或破坏信息来源的完整性。
4. 媒体素养和批判性思维的必要性:
在 AI 生成内容占主导地位的时代,媒体素养和批判性思维能力比以往任何时候都更加重要。个人必须具备批判性地评估信息、识别偏见以及区分可信和不可靠来源的能力。
5. AI 在研究和信息检索中的未来:
这项研究强调了继续开发和改进用于研究和信息检索的 AI 工具的必要性。虽然 AI 有可能彻底改变这些领域,但解决当前的局限性并确保这些工具得到负责任和合乎道德的使用至关重要。
扩展具体问题
让我们进一步深入探讨研究提出的一些具体问题:
A. ‘幻觉’问题:
众所周知,AI 聊天机器人有’幻觉’倾向,或者说会生成完全捏造的信息。这在引文的背景下尤其成问题,因为准确性至关重要。研究发现 AI 工具经常编造参考链接,突显了这一问题的严重性。
B. 偏见问题:
AI 模型是在大量数据集上训练的,这些数据集可能包含反映社会偏见或扭曲观点的偏见。这些偏见可能会在 AI 的响应中体现出来,导致不准确或误导性的信息。当 AI 工具用于研究敏感或有争议的话题时,这一点尤其令人担忧。
C. 透明度问题:
许多 AI 模型的内部工作原理通常是不透明的,这使得人们很难理解它们是如何得出结论的。这种缺乏透明度使得识别和纠正系统中的错误或偏见变得具有挑战性。
D. 版权问题:
研究发现,一些 AI 工具会访问已阻止它们访问的来源的内容,这引发了严重的版权问题。AI 开发者必须尊重知识产权,并确保他们的工具不被用于侵犯版权。
前进的道路:负责任的 AI 开发和教育
前进的道路需要双管齐下的方法:负责任的 AI 开发和全面的教育。
1. 负责任的 AI 开发:
AI 开发者必须在其系统的设计和实施中优先考虑准确性、透明度和道德考量。这包括:
- 提高引文准确性: 开发技术以确保 AI 工具提供准确且可验证的引文。
- 解决偏见: 实施方法来减轻 AI 模型中的偏见,并确保它们提供公平和平衡的信息。
- 增强透明度: 使 AI 模型更加透明和可解释,允许用户了解它们是如何得出结论的。
- 尊重版权: 确保 AI 工具尊重知识产权,并且未经许可不得访问或使用受版权保护的材料。
2. 全面的教育:
个人,尤其是年轻人,必须接受有关 AI 工具的能力和局限性的教育。这包括:
- 促进媒体素养: 教授批判性思维技能和评估来自各种来源的信息的能力。
- 强调研究技能: 强调传统研究方法的重要性以及独立验证信息的能力。
- 了解 AI 的局限性: 教育用户了解 AI 生成不准确或有偏见信息的可能性。
- 鼓励负责任的使用: 促进负责任和合乎道德地使用 AI 工具。
通过将负责任的 AI 开发与全面的教育相结合,我们可以利用 AI 的潜力,同时减轻其风险。目标是创造一个未来,让 AI 成为学习和发现的宝贵工具,而不是错误信息和混乱的来源。这项研究的结果为我们未来的工作提供了重要的提醒。迈向真正知情和具备 AI 素养的社会的旅程需要持续的警惕、批判性的评估以及对负责任创新的承诺。