政府裁员用Meta AI,而非马斯克Grok

一个意想不到的启示表明,政府效率部门备受关注的精简联邦工作人员倡议,使用的是较旧的Meta AI 模型,具体来说是Llama 2,而不是 Elon Musk 自己的 AI 产品 Grok。

“岔路口”备忘录和Llama 2的角色

根据Wired进行的一项审查,埃隆·马斯克的DOGE(政府效率部)在人事管理局内部运作的分支机构,使用了Meta的Llama 2模型来细致地分析和分类联邦雇员对1月下旬在政府部门内发送的具争议的“岔路口”邮件的回复。

“岔路口”备忘录与马斯克之前发送给 Twitter 员工的沟通内容惊人地相似,它向联邦工作人员提供了一个选择:通过接受政府修订的重返办公室政策来展示“忠诚”,或者选择辞职。当时,流传的谣言表明 DOGE 正在利用 AI 处理政府雇员数据。此后证实,Llama 2 用于筛选员工回复并量化辞职人数。

Llama 2的争议历史:军事应用和 Meta 的回应

Llama 2 的历史并非没有争议。值得注意的是,去年 11 月,中国研究人员利用 Llama 2 作为中国军方使用的 AI 模型的基础。这一披露引发了强烈反对,促使 Meta 最初谴责研究人员“未经授权”依赖“单一”和“过时的”模型。然而,Meta 随后改变了禁止军事应用的政策,并扩大了美国国家安全目的对其 AI 模型的访问权限。

Meta 公开发表声明,承诺让美国政府机构,包括那些参与国防和国家安全应用的机构,以及支持他们努力的私营部门合作伙伴,可以访问 Llama。他们宣布与埃森哲、亚马逊网络服务、安杜里尔、博思艾伦、Databricks、德勤、IBM、Leidos、洛克希德·马丁、微软、甲骨文、Palantir、Scale AI 和 Snowflake 等公司建立合作伙伴关系,以促进 Llama 在政府机构中的部署。

Wired 认为,Meta 模型的开源性质允许政府轻松地使用它们来支持马斯克的目的,可能无需获得公司的明确同意。确定 Meta 模型在政府内部的部署程度仍然是一个挑战。特别是考虑到Meta 在 Llama 3 和 4 方面的进步,DOGE 依赖 Llama 2 的理由尚不清楚。

对 DOGE 使用 Llama 2 的了解有限

关于 DOGE 对 Llama 2 的具体应用细节仍然很少。Wired 的调查显示,DOGE 在本地部署了该模型,这表明数据不太可能通过互联网传输,从而减轻了许多政府雇员表达的隐私担忧。

国会担忧和调查呼吁

在四月份致管理和预算办公室主任罗素·沃特的信中,超过 40 名立法者要求对 DOGE 使用 AI 进行彻底调查。他们表示,这种使用,以及潜在的安全风险,可能会削弱 AI 在政府部门的成功和适当采用。

这封信特别提到了 DOGE 的一名工作人员和前 SpaceX 员工,据称他使用了马斯克的 xAI Grok-2 模型来开发“AI 助理”。信中还提到了使用基于 Anthropic 和 Meta 模型的名为“GSAi”的聊天机器人来分析合同和采购数据。此外,DOGE 还与名为 AutoRIF 的软件有关,据说该软件旨在加速政府部门的大规模解雇。

立法者强调了围绕 DOGE 使用“AI 系统分析来自 200 万联邦工作人员中的很大一部分的电子邮件,描述他们上周的成就”的“重大安全问题”,理由是缺乏透明度。

这些电子邮件是在“岔路口”电子邮件之后发送的,促使工人以五个要点概述每周的成就。员工们对回应的性质表示担忧,担心 DOGE 可能在没有适当安全许可的情况下索取敏感信息。

Wired 无法明确证实 Llama 2 是否也被用于解析这些电子邮件回复。然而,联邦工作人员向 Wired 表示,如果这是一个明智的决定,DOGE 可能会“重复使用他们来自‘岔路口’电子邮件实验的代码”。

为什么没有使用 Grok

问题出现了:为什么 DOGE 没有使用 Grok?

可能的解释是,Grok 在当时是一个专有模型,在 1 月份 DOGE 执行任务时无法使用。根据 Wired 的说法,DOGE 可能会在未来增加对 Grok 的依赖,特别是考虑到微软宣布,它将在本周开始在其 Azure AI Foundry 中托管 xAI 的 Grok 3 模型,从而扩大该模型的潜在应用。

立法者担忧:利益冲突和数据泄露

在他们的信中,立法者敦促沃特调查涉及马斯克的潜在利益冲突,同时警告潜在的数据泄露。他们断言,AI,正如 DOGE 所使用的那样,尚未适用于政府应用。

他们认为,“如果没有适当的保护措施,将敏感数据输入 AI 系统会将其置于系统运营商的控制之下——这是对公众和员工信任的严重破坏,并增加了围绕该数据的网络安全风险。”他们进一步指出,“生成式 AI 模型也经常出错并表现出明显的偏见——如果没有适当的审查、透明度、监督和保障措施,该技术根本无法用于高风险决策。”

虽然 Wired 的报告表明 DOGE 没有将“岔路口”电子邮件中的敏感数据传输到外部来源,但立法者正在倡导对 AI 系统进行更严格的审查,以减轻“与 AI 模型部署者共享个人身份或以其他方式敏感的信息的风险”。

一个普遍的担忧是,马斯克可能会越来越多地利用他自己的模型,可能会从竞争对手无法访问的政府数据中获益,同时将该数据暴露于泄露风险中。立法者希望 DOGE 将被迫停止其 AI 系统。然而,沃特似乎更认同 DOGE 的做法,他的联邦 AI 使用指南证明了这一点,该指南鼓励各机构“消除创新障碍,并为纳税人提供最佳价值”。

立法者的信强调,“虽然我们支持联邦政府整合新的、经批准的 AI 技术,这些技术可以提高效率或效力,但我们不能在与联邦数据交互时牺牲安全性、隐私和适当的使用标准。”他们还表示,“我们也不能容忍使用 AI 系统,这些系统通常以幻觉和偏见而闻名,在没有对这些模型进行充分透明和监督的情况下,用于关于终止联邦雇佣或联邦资金的决定——由于技术缺陷或对此类技术的使用不当而失去人才和关键研究的风险实在太高了。”

深入探讨人工智能在政府效率倡议中的应用的影响

政府效率部 (DOGE) 在运营精简工作中利用人工智能的事件引发了一场关于整合人工智能的辩论和审查风暴。该机构采用了Meta的 Llama 2 模型(一种开放源代码人工智能),而不是埃隆·马斯克的专有 Grok 人工智能,这为已经错综复杂的叙述增添了一层复杂性。这种情况需要深入探讨将 AI 集成到政府运营中的多方面影响,从而审查固有的优势和风险、伦理考量以及利益冲突的可能性。

人工智能的诱惑和陷阱

将 AI 集成到政府职能中承诺了效率、数据分析和决策方面的变革性进步。从自动化例行任务到筛选海量数据集,人工智能有潜力释放前所未有的生产力水平并改善公共服务的交付。想象一下,可以预测基础设施故障、个性化教育或优化灾难救援工作中资源分配的算法。可能性似乎是无限的。

然而,这场技术革命并非没有危险。对 AI 系统的依赖引入了一个复杂的伦理困境网络、安全漏洞和潜在偏差。 AI 模型在数据上进行训练,如果这些数据反映了社会偏见,那么 AI 将延续甚至放大这些偏见。这对政府服务的公平性和平等构成了重大威胁,可能会导致在执法、社会福利和教育等领域产生歧视性结果。

此外,人工智能的使用引发了关于透明度和问责制的深刻问题。当算法做出决策时,很难理解这些决策背后的基本原理,从而使得政府机构难以对其行为承担责任。

Llama 2 与 Grok 的难题

选择 Llama 2 而不是 Grok 带来了自身的一系列考虑因素。 Llama 2 的开源性质使其易于访问且可定制,从而使得政府机构在无需锁定到专有生态系统的情况下便可根据其特定需求对其进行调整。但是,这也意味着它缺乏通常伴随专有 AI 解决方案的专用支持和维护。

另一方面,Grok 作为一种专有 AI,提供了尖端性能和专业知识的承诺。但是,它也引发了人们对潜在供应商锁定、数据隐私和源于 AI 训练数据的偏见的担忧。它突出了人们对任何私营实体 (特别是与一位与政府目标紧密相关的高调人物相关联的实体) 对决策过程施加不正当影响的潜在能力的担忧。

利益冲突的幽灵

埃隆·马斯克的实体(SpaceX 和 xAI)参与政府 AI 计划引发了人们对利益冲突的担忧。作为一位在各个行业拥有既得利益的杰出人物,马斯克的参与引发了关于他可能对政府政策和合同授予施加影响的潜在影响的问题。

政府是否会给予马斯克公司优惠待遇?是否已采取充分的保障措施来确保公正地做出符合公众最佳利益的决策?这些都需要严格审查的合理问题。

数据安全和隐私问题

在政府运营中使用 AI 不可避免地涉及收集、存储和处理敏感公民数据。这为网络攻击和数据泄露创造了一个诱人的目标。政府必须实施强有力的安全措施,以保护这些数据免受未经授权的访问和滥用。这不仅包括保护数据免受外部威胁,还包括建立严格的访问控制和问责机制,以防止内部滥用。

AI 算法的不透明性放大了对数据隐私的担忧。公民通常不知道他们的数据是如何被处理的或用于做出影响他们生活的决策。这种透明度的缺乏会削弱对政府的信任,并可能导致人们抵制 AI 驱动的计划。

对政府未来的影响

关于 DOGE 使用 AI 的争论不仅仅是一个具体的例子,更是关于人工智能时代政府更广泛的未来。政府如何才能利用 AI 的力量来改善公共服务,同时减轻风险?我们如何才能确保以合乎道德、透明和负责任的方式使用 AI?

这些问题的答案需要一种多管齐下的方法:

  • 建立明确的道德准则:编纂一套明确的道德原则,以规范 AI 在政府中的使用。这些原则应优先考虑公平、透明、问责制和尊重隐私。

  • 提高透明度和开放性:使 AI 算法和决策过程更加透明。发布报告描述 AI 在政府中的使用方式,并为公民提供提供反馈的途径。

  • 保护数据安全:实施强有力的安全措施,以保护敏感的公民数据免受网络威胁和内部滥用。

  • 确保问责制:为 AI 驱动的决策建立明确的问责制。指定负责监督 AI 的使用并解决可能出现的任何问题的政府官员。

  • 培养公众信任:教育公众有关 AI 在政府中应用带来的好处和风险。与公民沟通以解决他们的担忧并建立对合理使用这种技术的信任。

通过采取积极主动和周到的方法,政府可以利用 AI 的变革力量,同时维护公共利益。 DOGE 争议提醒我们,在人工智能时代,仔细规划、公开对话和坚持道德原则至关重要。

事件的展开

围绕 DOGE 的 AI 使用情况的闹剧远未结束。随着调查的继续和更多细节的浮出水面,该事件无疑将对未来政府部门内部的 AI 部署产生影响。希望这种情况将导致更加谨慎的科技整合。