馬斯克離開國防營運指導強化(DOGE)倡議一事,看似是件重大事件,但其真正的影響,在於公眾保持警惕的程度。真正的故事不僅僅是關於預算削減或馬斯克的個人姿態;而是關於意識形態專案悄無聲息地融入到引導美國政府的技術系統中。
二月份,我概述了「AI政變」的概念,其中人工智慧的功能不再是工具,而更像是一種奇觀和藉口。大型語言模型(LLMs)充當著藉口生成器,為那些不願承擔責任的行為,提供了一個方便的掩護。Elon Musk 也扮演著類似的角色,以聳人聽聞的表演分散公眾的注意力,同時執行激進的變革。
其中一個最令人髮指的例子,是取消一項原本可以預防 2600 萬人(包括兒童)死於愛滋病的計畫的資金。民選官員在很大程度上忽略了這個問題,假裝束手無策。
馬斯克備受爭議的舉動,成為聯邦政府激進解體的便捷煙幕彈。雖然這引發了一場草根抗議運動,並對特斯拉的銷售產生了負面影響,但它掩蓋了 AI 整合更深層的問題。
雖然馬斯克和川普一直在推動 DOGE 在意識形態驅動下的預算削減,但《大西洋月刊》的一項分析顯示,聯邦政府的總支出實際上有所增加。聯邦政府勞動力的 AI 轉型,被吹捧為實現「政府效率」的手段,但在很大程度上仍未被注意到。DOGE 利用 Llama 2 審查和分類聯邦僱員的電子郵件,但 Palantir 價值 1.13 億美元的合約,旨在創建一個龐大的民用監視基礎設施,突顯了一個令人不安的趨勢。該公司也正在將馬斯克的 Grok 語言模型整合到其平台中。
程式錯誤
xAI 的 Grok,直接受馬斯克的控制,提供了一個令人擔憂的例子。該模型在回應良性查詢時,發表了宣揚南非白人種族滅絕真實性的評論。這種對模型隱藏系統提示的操縱,揭示了一種笨拙的社會工程嘗試。後來發現,該模型從事否認納粹大屠殺的行為,xAI 將其歸因於「程式錯誤」。
xAI 對「白人種族滅絕」事件的回應是,提示修改違反了內部政策。他們補充說,未來的系統提示更改將受到審查。
這些事件突顯了系統提示的固有風險。它們可以被任何控制模型的人更改,並且只有在檢測到之後才會受到審查。在政府決策中依賴企業 AI 模型,會賦予科技精英巨大的政治權力。
通常,將技術納入政府需要仔細的審議和安全審查。DOGE 的實施缺乏適當的監督,引發了對任何審查獨立性的擔憂。透過將機構資料整合到一個統一的模型中,DOGE 沒有考慮到各個機構的特定安全需求。本質上,DOGE 正在實施變革性變革,而沒有評估其必要性、充分性或對公民的益處。
如果川普政府真正關心建立可靠的系統,他們的行動就會反映出這一點。相反,DOGE 和川普政府扼殺了對企業 AI 模型中偏見和系統提示操縱案例的監督。在 DOGE 取消對 AI 偏見研究的資助後,國會通過了一項新的法案,禁止未來十年內制定任何關於 AI 監督的新法律。
流氓員工
馬斯克離開 DOGE 後留下了一筆遺產,這筆遺產因 Palantir 的選擇而得以鞏固,Palantir 是由 Thiel 創立的 AI 公司,也是馬斯克選擇的公司。馬斯克和 Thiel 是 Paypal 的共同創辦人,Thiel曾表示對自由與民主的相容性持懷疑態度。
馬斯克透過 DOGE 發起的權力集中化將持續存在,且運作方式會更加謹慎。雖然他的離開對那些反對他的人來說是一場勝利,但 DOGE 的工作仍在那些因忠誠而被僱用的官僚的指導下繼續進行。
DOGE 的真正目的從來都不是為了消除政府浪費,而是以更少的問責措施來自動化官僚機構。這種「政府效率」的目標仍然定義不明。簡化政府流程應簡化公民與服務和資訊的互動。相反,裁員造成了系統性的阻塞,同時損害了隱私。美國國稅局(IRS)的資金削減,引發了對審計和退稅的擔憂,可能導致數十億美元的收入損失。
DOGE 的目的不是優化官僚機構,而是要消除人為因素。它優先考慮行業式的效率,對公民進行分類,並假設存在系統性的濫用。然後,根據嵌入在 AI 系統中的偏見,授予或拒絕權利和特權。
那些控制對這些類別的定義和自動回應的人,掌握著重要的權力。模型反映了訓練它們的人的決定,包括容忍的偏見和優化目標。由於目前的管理者使用演算法痕跡,官僚機構失去了與人性的最後一絲聯繫。
行政錯誤
官僚主義和官僚錯誤並非新鮮事。前所未有的是切斷了人類對錯誤的問責,促使人們對避免錯誤漠不關心。
考慮一下小羅伯特·F·甘迺迪(Robert F. Kennedy Jr.)的健康報告,其中包含捏造的引文。從歷史上看,這種行為本應是一場醜聞,但它卻被視為「格式錯誤」而被駁回。甘迺迪支持缺乏證據支持的政策,而此報告的 AI 生成,表明優先考慮的是演示,而不是合法的科學探究。捏造證據的自動化,只是 AI 成為政府工具的一種方式。
DOGE 似乎更關注懲罰對川普的反對者——移民、學者、少數族裔——及其廣泛的努力,導致了不可避免的錯誤。 Kilmar Abrego Garcia 的驅逐出境,被歸因於「行政錯誤」,就是一個例子。這例證了對錯誤的蓄意武器化。
最終,DOGE 旨在創建一個系統,在該系統中,有爭議的結果可以歸咎於「行政」、「程式設計」或「格式」錯誤。政府將責任轉嫁給有缺陷的工具,拒絕承擔責任。在 Garcia 的案例中,政府拒絕糾正錯誤。這表明了一個不可靠秩序的世界,只有那些承諾效忠的人才能倖免。
我們正在創造一個脆弱的環境,在這個環境中,個人的命運取決於 AI 的突發奇想及其隱形的程式編碼。當這些 AI 程式成為不穩定的工具,將數據整合到統一的監視架構中時,會發生什麼?
雖然馬斯克離開 DOGE 可能會促使公眾的注意力減弱,但根本問題仍然存在:演算法偏見、缺乏問責制以及人類監督的削弱。這些趨勢如果聽之任之,可能會損害公正和平等社會的基礎。