報告揭露:政府裁員計畫採用 Meta Llama 2 AI

一份意外的爆料顯示,政府效率部門備受審查的精簡聯邦勞動力計畫,使用的是較舊的 Meta AI 模型,具體來說是 Llama 2,而不是伊隆·馬斯克自己的 AI 創作,Grok。

「岔路口」備忘錄與 Llama 2 的角色

根據 Wired 進行的審查,伊隆·馬斯克(Elon Musk)的 DOGE(政府效率部門)附屬機構在人事管理局內部運作,採用 Meta 的 Llama 2 模型,仔細分析並分類聯邦僱員對 1 月下旬在政府部門發出的有爭議的「岔路口」(Fork in the Road)電子郵件的回應。

「岔路口」備忘錄與馬斯克之前發送給 Twitter 員工的訊息非常相似,它讓聯邦工作人員做出選擇:接受政府修訂後的返回辦公室政策以表示「忠誠」,或選擇辭職。當時,流傳的謠言表明 DOGE 正在利用 AI 來處理政府僱員的數據。此後,確認訊息浮出水面,證實了使用 Llama 2 來篩選僱員的回應並量化辭職人數。

Llama 2 的爭議歷史:軍事應用與 Meta 的回應

Llama 2 的歷史並非沒有爭議。值得注意的是,11 月,中國研究人員利用 Llama 2 作為中國軍方使用的 AI 模型基礎。這一爆料引發了強烈反對,促使 Meta 最初譴責研究人員「未經授權」依賴「單一」和「過時」的模型。然而,Meta 隨後撤銷了禁止軍事應用的政策,並擴大了美國國家安全目的對其 AI 模型的訪問權限。

Meta 公開宣布其致力於讓 Llama 可供美國政府機構使用,包括那些參與國防和國家安全應用,以及支持其努力的私營部門合作夥伴。他們宣布與埃森哲(Accenture)、亞馬遜網路服務(Amazon Web Services)、安杜里爾(Anduril)、博思艾倫(Booz Allen)、Databricks、德勤(Deloitte)、IBM、Leidos、洛克希德·馬丁(Lockheed Martin)、微軟(Microsoft)、甲骨文(Oracle)、Palantir、Scale AI 和 Snowflake 等公司建立合作夥伴關係,以促進 Llama 在政府機構的部署。

Wired 認為,Meta 模型的開源性質讓政府可以輕鬆地利用它們來支持馬斯克的目標,可能無需明確的公司同意。確定 Meta 模型在政府部門部署的程度仍然是一個挑戰。DOGE 依賴 Llama 2 的基本原理尚不清楚,特別是考慮到 Meta 在 Llama 3 和 4 方面的進步。

對 DOGE 使用 Llama 2 的了解有限

關於 DOGE 具體應用 Llama 2 的詳細資訊仍然很少。Wired 的調查顯示,DOGE 在本地部署了該模型,這表明資料不太可能通過互聯網傳輸,從而減輕了許多政府僱員表示的隱私問題。

國會的擔憂和調查呼籲

在 4 月份致管理和預算辦公室主任羅素·沃特(Russell Vought)的一封信中,超過 40 名議員要求對 DOGE 使用 AI 進行徹底調查。他們表示擔心這種使用,以及潛在的安全風險,可能會破壞 AI 在政府部門的成功和適當採用。

該信件特別提到了 DOGE 的一名工作人員和前 SpaceX 僱員,據稱他使用馬斯克的 xAI Grok-2 模型開發了一個「AI 助理」。它還提到了使用基於 Anthropic 和 Meta 模型的聊天機器人「GSAi」來分析合約和採購數據。此外,DOGE 還與一種名為 AutoRIF 的軟體有關聯,據稱該軟體旨在加速政府部門的大規模解僱。

議員們強調了 DOGE 使用「AI 系統分析來自 200 萬聯邦勞動力大部分成員的電子郵件,描述他們上週的成就」所涉及的「重大安全問題」,並指出缺乏透明度。

這些電子郵件是在「岔路口」電子郵件之後發送的,促使員工以五個要點概述每週的成就。僱員們對回應的性質表示擔憂,擔心 DOGE 可能在沒有適當安全許可的情況下索取敏感資訊。

Wired 無法明確確認 Llama 2 是否也用於分析這些電子郵件的回應。然而,聯邦工作人員向 Wired 表示,如果這是一個明智的決定,DOGE 可能會「重複使用他們的代码」從「岔路口」電子郵件實驗。

為什麼沒有使用 Grok

問題出現了:為什麼 DOGE 沒有利用 Grok?

可能的解釋是,Grok 當時是一個專有模型,1 月份無法用於 DOGE 的任務。根據 Wired 的說法,DOGE 可能會增加其對 Grok 的依賴,尤其是考慮到微軟宣布將於本週開始在其 Azure AI Foundry 中託管 xAI 的 Grok 3 模型,從而擴大了該模型的潛在應用。

議員的擔憂:利益衝突與數據洩露

在他們的信中,議員們敦促沃特調查涉及馬斯克的潛在利益衝突,同時也警告潛在的數據洩露。他們聲稱,AI 在 DOGE 的使用方式下,尚未準備好用於政府應用。

他們認為,「如果沒有適當的保護措施,將敏感數據輸入 AI 系統會將其置於系統運營商的掌握之中——大規模違反公眾和僱員的信任,並增加圍繞該數據的網絡安全風險。」他們進一步指出,「生成式 AI 模型也經常出錯並顯示出明顯的偏見——如果沒有適當的審查、透明度、監督和保護措施,該技術根本無法用於高風險決策。」

雖然 Wired 的報告表明 DOGE 並未將來自「岔路口」電子郵件的敏感數據傳輸到外部來源,但議員們正在倡導對 AI 系統進行更嚴格的審查,以減輕「與 AI 模型部署者共享個人身份資訊或其他敏感資訊的風險」。

一個普遍的擔憂是,馬斯克可能會越來越多地利用自己的模型,可能從他的競爭對手無法訪問的政府數據中獲益,同時也將這些數據暴露於洩露風險之中。議員們希望 DOGE 將被迫停止其 AI 系統。然而,沃特似乎更符合 DOGE 的方法,正如他為聯邦使用 AI 提供的指導中所證明的那樣,該指導鼓勵各機構「消除創新障礙,並為納稅人提供最佳價值」。

議員們的信中強調,「雖然我們支持聯邦政府整合新的、經批准的 AI 技術,這些技術可以提高效率或效力,但在與聯邦數據互動時,我們不能犧牲安全、隱私和適當的使用標準。」他們還表示,「我們也不能容忍在沒有對這些模型進行充分透明和監督的情況下,在有關終止聯邦僱傭或聯邦資金的決策中使用 AI 系統,這些系統通常以幻覺和偏見而聞名——由於有缺陷的技術或此類技術的有缺陷的使用而失去人才和關鍵研究的風險實在太高了。」

深入探討 AI 在政府效率計畫中的使用影響

政府效率部門(DOGE)在其營運精簡工作中利用人工智慧的事件,引發了一場關於辯論和審查的風暴。該機構依靠 Meta 的 Llama 2 模型(一種開源 AI)而不是伊隆·馬斯克的專有 Grok AI 的消息,為已經錯綜複雜的敘述增添了一層複雜性。這種情況值得深入探討將 AI 整合到政府運營中的多方面影響,檢視固有的利益和風險、道德考量以及利益衝突的可能性。

AI 在政府中的誘惑與陷阱

將 AI 整合到政府職能中,承諾了效率、數據分析和決策方面的變革性進步。從自動化例行性任務到篩選龐大的數據集,AI 有潛力釋放前所未有的生產力水平,並改善公共服務的提供。想像一下可以預測基礎設施故障、個性化教育或優化災難救援工作中資源分配的演算法。可能性似乎是無止境的.

然而,這場技術革命並非沒有危險。對 AI 系統的依賴引入了一個由道德困境、安全漏洞和潛在偏見組成的複雜網絡。AI 模型是在數據上訓練的,如果這些數據反映了社會成見,那麼 AI 將延續甚至放大這些偏見。這對政府服務的公平性和平等構成了重大威脅,可能導致執法、社會福利和教育等領域出現歧視性結果。

此外,AI 的使用引發了關於透明度和問責制的深刻問題。當決策由演算法做出時,理解這些決策背後的依據變得具有挑戰性,這使得政府機構難以對其行為負責。

Llama 2 與 Grok 的難題

選擇 Llama 2 而不是 Grok 帶來了它自己的一系列考量。Llama 2 的開源性質使其易於訪問且可自訂,允許政府機構根據其特定需求調整它,而不會被鎖定在專有的生態系統中。然而,這也意味著它缺乏通常與專有 AI 解決方案相關的專用支持和維護。

另一方面,Grok 作為一種專有 AI,具有提供尖端效能和專業知識的希望。然而,它也引發了對潛在供應商鎖定、數據隱私以及源於 AI 訓練數據的偏見的擔憂。它強調了對任何私營實體(尤其是與一位與政府目標密切相關的高調人物相關聯的實體)可能對決策過程施加不當影響的擔憂。

利益衝突的幽靈

伊隆·馬斯克的實體(SpaceX 和 xAI)參與政府 AI 計畫引發了利益衝突的幽靈。作為一位在各個領域擁有既得利益的傑出人物,馬斯克的參與引發了關於他可能對政府政策和合約授予施加潛在影響的問題。

政府會給予馬斯克的公司優惠待遇嗎?是否有足夠的保障措施來確保決策公正,並以符合公眾最佳利益的方式做出?這些都是需要嚴格審查的合理問題。

數據安全和隱私問題

在政府運營中使用 AI 不可避免地涉及收集、儲存和處理敏感的公民數據。這為網絡攻擊和數據洩露創造了一個誘人的目標。政府必須實施強有力的安全措施,以保護這些數據免遭未經授權的訪問和濫用。這不僅包括保護數據免受外部威脅,還包括建立嚴格的訪問控制和問責機制,以防止內部濫用。

由於 AI 演算法的不透明性質,對數據隱私的擔憂加劇了。公民通常不知道他們的數據如何被處理或用於做出影響他們生活的決策。這種缺乏透明度削弱了公眾對政府的信任,並可能導致對 AI 主導的計畫產生抵制。

對政府未來的影響

關於 DOGE 使用 AI 的爭論不僅僅是關於一個特定的案例,而是關於人工智慧時代政府更廣闊的未來。如何在減輕風險的同時,利用 AI 的力量來改善公共服務?我們如何確保 AI 以合乎道德、透明和負責任的方式使用?

這些問題的答案需要一種多管齊下的方法:

  • 建立明確的道德準則:制定一套明確的道德原則,以指導 AI 在政府中的使用。這些原則應優先考慮公平、透明、問責制和尊重隱私。

  • 促進透明度和開放性:使 AI 演算法和決策過程更加透明。發布報告,描述 AI 如何在政府中使用,並提供公民提供反饋的途徑。

  • 保障數據安全:實施強有力的安全措施,以保護敏感的公民數據免受網絡威脅和內部濫用。

  • 確保問責制:為 AI 主導的決策建立明確的問責制。指定負責監督 AI 使用並解決可能出現的任何問題的政府官員。

  • 培養公眾信任:教育公眾了解 AI 在政府中的益處和風險。與公民互動以解決他們的擔憂,並建立對負責任地使用這項技術的信任。

通過採取積極主動和深思熟慮的方法,政府可以利用 AI 的轉型力量,同時維護公眾利益。DOGE 的爭議有力地提醒我們,在人工智慧時代,仔細規劃、公開對話以及對道德原則的承諾至關重要。

劇情發展

圍繞 DOGE 的 AI 使用情況的鬧劇遠未結束。隨著調查的繼續和更多細節的出現,該事件無疑將對未來 AI 在政府部門的部署產生影響。希望這種情況能導致更周到的技術整合。