AI事实核查:聊天机器人的不可靠性

在印度与巴基斯坦的短暂冲突期间,错误信息激增,社交媒体用户开始依赖 AI 聊天机器人进行验证。然而,这些聊天机器人却提供了更多的虚假信息,凸显了它们作为事实核查工具的不可靠性。随着各大科技平台不断减少人工事实核查员的数量,用户越来越依赖于 AI 驱动的聊天机器人,例如 xAI 的 Grok、OpenAI 的 ChatGPT 和 Google 的 Gemini,以寻求可靠的信息。

AI 聊天机器人事实核查的兴起

在埃隆·马斯克 (Elon Musk) 的 X 平台 (前身为 Twitter) 上,”@Grok,这是真的吗?”已成为用户常见的提问方式。Grok 是内置在 X 平台上的 AI 助手,反映了用户在社交媒体上寻求即时辟谣的趋势。然而,这些 AI 聊天机器人的回答往往充斥着错误信息。

Grok 最近受到了密切关注,因为它将极右翼阴谋论“白人种族灭绝”插入到不相关的查询中。Grok 错误地将来自苏丹喀土穆机场的旧视频片段识别为巴基斯坦努尔汗空军基地在印巴冲突期间遭受的导弹袭击。此外,尼泊尔一栋着火的建筑被错误地识别为“可能”显示了巴基斯坦对印度袭击的军事回应。

AI 事实核查的局限性

信息监控机构 NewsGuard 的研究员 McKenzie Sadeghi 告诉法新社:“由于 X 和其他大型科技公司已经缩减了对人工事实核查员的投资,因此人们越来越依赖 Grok 作为事实核查员。”她警告说:“我们的研究一再发现,AI 聊天机器人不是可靠的新闻和信息来源,尤其是在突发新闻方面。”

NewsGuard 的研究发现,包括 Grok 在内的 10 个领先的聊天机器人很容易重复虚假信息,包括俄罗斯的虚假宣传叙事以及与最近的澳大利亚选举有关的虚假或误导性说法。哥伦比亚大学数字新闻中心 Tow Center 最近对八个 AI 搜索工具进行了一项研究,发现聊天机器人“通常不擅长拒绝回答他们无法准确回答的问题,而是提供不正确或推测性的答案。”

法新社在乌拉圭的事实核查员向 Gemini 询问了一张 AI 生成的女性图像,Gemini 不仅证实了图像的真实性,还捏造了有关该女性身份以及图像可能拍摄地点的详细信息。

Grok 最近将一段据称是巨型蟒蛇在亚马逊河中游泳的视频标记为“真实的”,甚至引用了听起来可信的科学考察队来支持其虚假主张。事实上,这段视频是 AI 生成的,法新社在拉丁美洲的事实核查员报告说,许多用户引用 Grok 的评估作为该视频真实的证据。

对 AI 事实核查的担忧

这些发现引起了人们的担忧,因为调查显示,越来越多的在线用户正在从传统的搜索引擎转向 AI 聊天机器人来收集和验证信息。与此同时,Meta 今年早些时候宣布将结束其在美国的第三方事实核查计划,转而将辟谣任务交给普通用户,采用一种名为“社区笔记”的模式,该模式由 X 平台推广。然而,研究人员一再质疑“社区笔记”在打击虚假信息方面的有效性。

长期以来,人工事实核查一直是两极分化的政治气候中的一个引爆点,尤其是在美国,保守派人士认为它压制了言论自由并审查了右翼内容,但专业事实核查员强烈反对这种说法。

法新社目前使用 26 种语言与 Facebook 的事实核查计划合作,包括在亚洲、拉丁美洲和欧盟。

AI 聊天机器人的质量和准确性可能会有所不同,具体取决于它们的训练和编程方式,这引发了人们的担忧,即它们的输出可能会受到政治影响或控制。

马斯克的 xAI 最近将 Grok 生成未经请求的帖子引用南非“白人种族灭绝”归咎于“未经授权的修改”。当 AI 专家 David Caswell 询问 Grok 谁可能修改了其系统提示时,聊天机器人将马斯克列为“最有可能”的罪魁祸首。

马斯克是出生于南非的亿万富翁,也是美国总统唐纳德·特朗普的支持者。他此前曾散布毫无根据的说法,称南非领导人“公开推动对白人进行种族灭绝”。

国际事实核查网络主任 Angie Holan 告诉法新社:“我们已经看到 AI 助手在人类编码人员专门更改其指令后,可以捏造结果或给出有偏见的答案。”“我特别关注 Grok 在收到提供预先授权答案的指令后,如何处理有关非常敏感事项的请求。”

AI 聊天机器人在信息领域的风险

AI 聊天机器人在提供信息方面的应用日益广泛,引发了一些 серьез的担忧,这些担忧涉及其潜在的误导性和操纵性影响。虽然这些技术在快速访问信息和简化研究方面具有优势,但其固有的局限性和偏差可能会无意或有意地传播错误信息或宣传。

AI 聊天机器人的固有限制

AI 聊天机器人通过分析大量文本数据来学习,但它们缺乏人类的批判性思维能力。这意味着它们可能会从数据中提取模式并生成看似合理的响应,但并未真正理解底层含义或上下文。这种知识的缺乏可能会导致产生不准确、不完整或具有误导性的信息。

此外,AI 聊天机器人的训练数据可能包含偏差,这些偏差反映在生成的响应中。例如,如果训练数据主要来自某个特定来源或观点,则聊天机器人可能会呈现出对该来源或观点的偏好,从而传播有偏见的信息。数据来源的多样性至关重要,单一来源即使数据量巨大,也可能导致严重的认知偏差,最终影响AI的判断准确性。不同的文化背景、社会立场和政治倾向都需要被纳入考量,才能使AI在做出判断时更加客观和全面。开发者需要深入理解各种偏差的来源和影响,并采取主动措施来纠正这些偏差,例如使用加权抽样方法、对抗训练和数据增强等技术手段。

AI 聊天机器人带来的风险

随着越来越多的人依赖 AI 聊天机器人获取信息,错误信息的传播风险也在增加。如果聊天机器人产生不准确或具有误导性的信息,用户可能会在不知不觉中接受并传播这些信息,从而导致错误信念的蔓延。这种无意的信息扩散可能会对社会产生广泛的影响,特别是在涉及公共健康、政治选举和社会稳定等敏感问题时。虚假信息的迅速传播可能引发恐慌、误导公众舆论,甚至导致社会动荡。

此外,AI 聊天机器人可能会被用于恶意目的,例如传播宣传或操纵公众舆论。通过精心设计训练数据或调整算法,恶意行为者可以操纵聊天机器人产生特定类型的响应,从而影响用户的信念和行为。这种有针对性的信息操纵可能会对个人和社会造成严重的危害,例如侵犯个人隐私、损害个人声誉和破坏社会信任。更严重的是,如果这种操纵行为被用于煽动仇恨、散布极端主义思想或干预选举,其后果将不堪设想。

如何减轻风险

为了减轻与 AI 聊天机器人相关的风险,需要采取一些措施。首先,开发人员应努力确保 AI 聊天机器人的训练数据尽可能全面和无偏见。这可能需要包括来自不同来源和观点的各种数据样本,以减少偏差的影响。除了数据本身的多样性,数据的质量也至关重要。需要建立严格的数据清洗和验证机制,以确保训练数据的准确性和可靠性。同时,需要对训练数据集进行定期的审查和更新,以适应不断变化的信息环境。

其次,需要对 AI 聊天机器人进行严格的测试和评估,以识别和纠正任何不准确或有偏差的倾向。这可能需要人工验证聊天机器人生成的响应,并使用各种指标来评估其准确性和公正性。除了传统的测试方法,还可以采用对抗性测试技术,即故意向AI系统输入具有挑战性的问题或数据,以评估其鲁棒性和容错能力。此外,还需要建立持续的监控机制,以检测AI系统在实际应用中可能出现的问题。

第三,用户应保持批判性思维,不要盲目相信 AI 聊天机器人提供的信息。用户应始终对比不同来源的信息,并注意聊天机器人可能存在的偏差。提高用户的数字素养是至关重要的,需要教育用户如何识别虚假信息、评估信息来源的可信度以及辨别不同观点之间的差异。同时,鼓励用户积极参与信息的验证和分享,共同维护一个健康的数字环境。

技术平台和社群的角色

技术平台和社群在规范和监督 AI 聊天机器人生成的内容方面发挥着重要作用。平台可以实施策略来识别和删除错误信息或宣传,并可以与事实核查组织合作,验证聊天机器人生成的响应的准确性。技术平台可以建立更加完善的举报机制,方便用户举报错误信息或不当内容。同时,可以引入机器学习技术,自动检测和过滤虚假信息,提高信息审查的效率。

此外,社群可以通过促进有关 AI 聊天机器人局限性和偏见的讨论来帮助提高用户意识,并鼓励用户保持批判性思维。开放的讨论和交流可以帮助用户更全面地了解AI技术的优缺点,从而更加理性地使用AI工具。同时,社群还可以组织各种活动,例如知识竞赛、研讨会和工作坊,以提高用户的数字素养和批判性思维能力。媒体也应该承担起更大的责任,向公众普及AI知识,提高公众对AI风险的认识。

数据隐私保护

在使用 AI 技术进行事实核查时,数据隐私保护是一个至关重要的问题。AI 系统在训练和运行过程中需要处理大量的用户数据,如果这些数据被滥用或泄露,可能会对用户的隐私造成严重的侵害。因此,必须采取严格的数据隐私保护措施,确保用户数据的安全和保密。

首先,需要对用户数据进行加密处理,防止未经授权的访问。其次,需要建立完善的数据访问控制机制,限制对用户数据的访问权限。只有经过授权的人员才能访问特定的数据,并且需要记录所有的数据访问行为,以便进行审计和监控。此外,还需要对用户数据进行匿名化处理,去除其中的身份识别信息,以降低数据泄露的风险。

更重要的是,需要建立用户同意机制,明确告知用户数据的使用目的和范围,并获得用户的明确同意。用户有权随时撤回同意,并要求删除其个人数据。此外,还需要遵守相关的法律法规,例如欧盟的 GDPR(通用数据保护条例),确保用户的数据隐私得到充分的保护。

结论

AI 聊天机器人是一种有用的工具,但它们也存在固有的局限性和风险。为了确保这些技术被负责任地使用,并减少错误信息和操纵的传播,开发人员、监管机构和用户都需要保持警惕。通过采取必要的措施,我们可以最大限度地发挥 AI 聊天机器人的优势,同时最大限度地降低其潜在的危害。未来的AI技术发展需要更加注重伦理和社会责任,建立更加完善的监管机制,并加强用户教育,共同构建一个健康、可信赖的AI生态系统。只有这样,我们才能充分利用AI技术的潜力,为社会发展带来福祉,同时避免其潜在的风险。