马斯克退出国防运营指导增强 (DOGE) 计划似乎是一件大事,但其真正的影响在于公众保持警惕的程度。真正的故事不仅仅是关于预算削减或马斯克的表演;而是关于意识形态项目悄无声息地整合到指导美国政府的技术系统中的问题。
今年二月,我概述了“AI 政变”的概念,即人工智能的功能与其说是工具,不如说是一种奇观和理由。大型语言模型 (LLM) 充当语境生成器,为没人愿意承担责任的行为提供便利的掩护。埃隆·马斯克也扮演了类似的角色,以耸人听闻的展示分散公众的注意力,同时执行激进的变革。
最令人震惊的例子之一是取消了一个阻止 2600 万人死于艾滋病(包括儿童)的计划的资金。当选官员在很大程度上忽视了这个问题,假装无能为力。
马斯克备受争议的滑稽行为为彻底解散联邦政府提供了一个便利的烟幕弹。虽然这引发了一场基层抗议运动,并对特斯拉的销售产生了负面影响,但它掩盖了 AI 集成的更深层次的问题。
虽然马斯克和特朗普都在宣传 DOGE 以意识形态驱动的预算削减,但《大西洋》杂志的一项分析显示,联邦总支出实际上有所增加。联邦劳动力的 AI 转型被吹捧为“政府效率”的一种手段,但在很大程度上仍未被注意到。 DOGE 利用 Llama 2 来审查和分类联邦雇员的电子邮件,但 Palantir 价值 1.13 亿美元的合同旨在创建一个庞大的民用监视基础设施,这凸显了一种令人不安的趋势。该公司还将马斯克的 Grok 语言模型集成到其平台中。
编程错误
xAI 的 Grok 在马斯克的直接控制下,提供了一个令人担忧的例子。该模型对善意的查询做出了评论,宣传了南非白人种族灭绝的现实。这种对模型隐藏系统提示的操纵揭示了一种笨拙的社会工程尝试。该模型后来被发现参与了否认大屠杀的行为,xAI 将其归因于“编程错误”。
xAI 对“白人种族灭绝”事件的回应是,提示修改违反了内部政策。他们补充说,未来的系统提示更改将受到审查。
这些事件突出了系统提示的固有风险。它们可以被任何控制模型的人更改,并且只有在检测到后才会受到审查。在政府决策中依赖企业 AI 模型会赋予科技精英巨大的政治权力。
通常,将技术引入政府需要仔细的审议和安全审查。DOGE 的实施缺乏适当的监督,引发了对任何审查独立性的担忧。通过将机构数据集成到统一模型中,DOGE 未能考虑各个机构的特定安全需求。本质上,DOGE 正在实施变革性变革,而没有评估其必要性、充分性或对公民的益处。
如果特朗普政府真心关心构建可靠的系统,他们的行动就会反映出这一点。相反,DOGE 和特朗普政府扼杀了对企业 AI 模型中的偏见和系统提示操纵实例的监督。在 DOGE 取消对 AI 偏见研究的资助后,国会通过的一项新法案将禁止未来十年内制定任何关于 AI 监督的新法律。
叛变员工
马斯克退出 DOGE 留下了一笔遗产,这笔遗产因 Palantir 的选择而得到巩固,Palantir 是由蒂尔创立的 AI 公司,由马斯克选择。马斯克和蒂尔是 Paypal 的联合创始人,蒂尔对自由和民主的兼容性表示怀疑。
马斯克通过 DOGE 发起的权力集中将持续存在,并且会更加谨慎地运作。虽然他的离开标志着反对他的人的胜利,但 DOGE 的工作仍在忠诚的官僚的指导下继续进行。
DOGE 的真正目的从来不是消除政府浪费,而是通过更少的问责措施来自动化官僚机构。这种“政府效率”的目标仍然定义不清。简化政府应该简化公民与服务和信息的互动。相反,裁员造成了系统性的僵局,同时损害了隐私。美国国税局的资金削减引发了对审计和退税的担忧,可能会导致数十亿美元的收入损失。
DOGE 的目的不是优化官僚机构,而是消除人为因素。它优先考虑行业风格的效率,对公民进行分类并假设系统性滥用。然后,根据嵌入到 AI 系统中的偏见来授予或拒绝权利和特权。
那些控制对这些类别进行定义和自动化响应的人拥有巨大的权力。模型反映了训练它们的人的决定,包括容忍的偏见和优化目标。在当前的管理者使用算法痕迹的情况下,官僚机构失去了与人性的最后联系。
行政错误
官僚主义和官僚错误并不新鲜。前所未有的是切断了人为错误问责制,促使人们对避免错误漠不关心。
考虑一下小罗伯特·F·肯尼迪的健康报告,其中包含捏造的引文。从历史上看,这种行为本应该是一个丑闻,但它却被认为是“格式错误”。肯尼迪拥护没有证据支持的政策,而这份报告的 AI 生成表明,演示文稿的优先级高于合法的科学探究。捏造证据的自动化仅仅是 AI 成为政府工具的一种方式。
DOGE 似乎更专注于惩罚反对特朗普的人——移民、学者、少数族裔——其广泛的努力不可避免地会产生错误。基尔玛·阿夫雷戈·加西亚的驱逐出境被归因于“行政错误”,就是一个例证。这表明了错误的有意识武器化。
最终,DOGE 旨在创建一个系统,在这个系统中,有争议的结果可以归咎于“行政”、“编程”或“格式”错误。政府将责任转移到有缺陷的工具上,拒绝承担责任。在加西亚的案例中,政府拒绝纠正错误。这表明了一个不可靠的秩序世界,只有那些承诺效忠的人才能幸免。
我们正在创建一个脆弱的环境,在这个环境中,个性化命运取决于 AI 的一时兴起及其不可见的编程。当这些 AI 程序是破坏稳定的工具,将数据整合到统一的监控架构中时,会发生什么?
虽然马斯克退出 DOGE 可能会促使公众的注意力减弱,但根本问题仍然存在:算法偏见、缺乏问责以及人工监督的侵蚀。如果不加以控制,这些趋势可能会损害公正和公平社会的基础。