政府職員削減にMetaのLlama 2活用

政府効率化部門の人員削減イニシアチブに、イーロン・マスク氏のGrokではなく、MetaのLlama 2が使用されたという驚くべき事実が明らかになりました。

「岐路」メモとLlama 2の役割

Wiredの調査によると、イーロン・マスク氏の政府効率化部門(DOGE)の関係組織は、人事管理局内で活動し、MetaのLlama 2モデルを活用して、政府職員に1月下旬に送られた物議を醸した「岐路」メールへの返信を綿密に分析・分類しました。

「岐路」メモは、以前マスク氏がTwitter従業員に送ったメッセージと酷似しており、政府職員に、政府の改正されたオフィス復帰ポリシーを受け入れることで「忠誠心」を示すか、辞職するかという選択肢を与えました。当時、DOGEがAIを活用して政府職員のデータを処理しているという噂が広まっていました。その後、Llama 2が従業員の返信を精査し、辞職者数を定量化するために使用されていたことが確認されました。

Llama 2の物議を醸す過去:軍事応用とMetaの対応

Llama 2の歴史には、論争がつきものです。特に、11月には、中国の研究者がLlama 2を中国軍が使用するAIモデルの基盤として利用しました。この事実は反発を招き、Metaは当初、研究者による「単一」で「時代遅れ」のモデルへの「無許可」の依存を非難しました。しかし、Metaはその後、軍事応用を禁止するポリシーを撤回し、米国の国家安全保障目的でAIモデルへのアクセスを拡大しました。

Metaは、防衛や国家安全保障のアプリケーションに関わる米国政府機関や、その取り組みを支援する民間セクターのパートナーがLlamaにアクセスできるようにすることを公に宣言しました。Accenture、Amazon Web Services、Anduril、Booz Allen、Databricks、Deloitte、IBM、Leidos、Lockheed Martin、Microsoft、Oracle、Palantir、Scale AI、Snowflakeなどの企業との提携を発表し、政府全体でのLlamaの展開を促進しました。

Wiredは、Metaのモデルのオープンソースの性質により、政府は明示的な企業の同意なしに、マスク氏の目的を支援するためにモデルを容易に利用できることを示唆しています。政府内でのMetaのモデルの展開範囲を明確にするにはさらなる分析が必要。Llama 3や4といったMetaの進歩を考えると、DOGEがLlama 2に依存した理由は不明です。

DOGEによるLlama 2の使用に関する限られた情報

DOGEによるLlama 2の具体的な応用に関する詳細は不足しています。Wiredの調査によると、DOGEはモデルをローカルに展開しており、データがインターネット経由で送信された可能性は低く、多くの政府職員が表明したプライバシーに関する懸念が軽減されています。

議会の懸念と調査要求

4月に、40人以上の議員が行政管理予算局長のラッセル・ヴォート氏に宛てた書簡で、DOGEによるAIの利用に関する徹底的な調査を要求しました。議員たちは、このような利用が潜在的なセキュリティリスクと共に、政府内でのAIの成功裏かつ適切な導入を損なう可能性があるという懸念を表明しました。

この書簡では、DOGEの職員であり、元SpaceXの従業員がマスク氏のxAI Grok-2モデルを使用して「AIアシスタント」を開発したと述べられています。また、契約および調達データを分析するために、AnthropicおよびMetaモデルに基づいた「GSAi」という名前のチャットボットの使用についても言及されています。さらに、DOGEは、政府全体での大量解雇を迅速化するために設計されたとされるAutoRIFと呼ばれるソフトウェアにも関連付けられています。

議員たちは、「200万人の連邦政府職員の大部分からの電子メールを分析し、前週の成果を説明するためにAIシステム」を使用することに関する「セキュリティ上の大きな懸念」を強調し、透明性の欠如を指摘しました。

これらのメールは「岐路」メールに続き、労働者に週ごとの成果を5つの箇条書きで概説するように促しました。従業員は、DOGEが適切なセキュリティクリアランスなしに機密情報を求めているのではないかと恐れ、応答の性質について不安を表明しました。

Wiredは、Llama 2がこれらのメールの応答の解析にも使用されたかどうかを明確に確認できませんでした。しかし、連邦政府職員はWiredに対し、DOGEが賢明な判断であれば、「岐路」メールの実験からの「コードを再利用する」可能性が高いと示唆しました。

なぜGrokが使用されなかったのか

なぜDOGEはGrokを利用しなかったのかという疑問が生じます。

最も可能性の高い説明は、当時Grokがプロプライエタリなモデルであったため、1月のDOGEのタスクには利用できなかったということです。Wiredによると、DOGEは今後、Grokへの依存度を高める可能性があります。特に、Microsoftが今週、xAIのGrok 3モデルをAzure AI Foundryでホストし始め、モデルの潜在的なアプリケーションを拡大することを発表していることを考えるとそうです。

議員たちの懸念:利益相反とデータ漏洩

書簡の中で、議員たちはヴォート氏に対し、マスク氏を含む利益相反の可能性について調査するよう求めると同時に、潜在的なデータ漏洩に対する警戒を促しました。議員たちは、DOGEが利用しているAIは、政府のアプリケーションにはまだ適していないと主張しました。

議員たちは、「適切な保護なしに、機密データをAIシステムに供給することは、システムのオペレーターの手に渡すことになります。これは、公衆および従業員の信頼を大きく裏切り、そのデータを取り巻くサイバーセキュリティリスクを高めます」と主張しました。さらに、「生成AIモデルは、頻繁にエラーを起こし、重大な偏りを示します。この技術は、適切な審査、透明性、監視、および安全対策が整っていない限り、高リスクの意思決定での使用にはまだ準備ができていません」と指摘しました。

Wiredのレポートは、DOGEが「岐路」メールからの機密データを外部ソースに送信したことを示唆していませんが、議員たちは「AIモデルの展開者と個人を特定できる情報またはその他の機密情報を共有するリスク」を軽減するために、AIシステムのより堅牢な審査を提唱しています。

広まっている懸念は、マスク氏が自身のモデルをますます活用し、競合他社がアクセスできない政府データから利益を得る一方で、そのデータを漏洩リスクにさらす可能性があるということです。議員たちは、DOGEがAIシステムを中止することを期待しています。しかし、ヴォート氏は、連邦政府でのAIの使用に関するガイダンスで、政府機関が「イノベーションへの障壁を取り除き、納税者にとって最高の価値を提供する」ことを奨励しており、DOGEのアプローチとより一致しているようです。

議員たちは、「効率性または有効性を改善できる、新しく承認されたAI技術を連邦政府が統合することを支持していますが、連邦データとやり取りする際に、セキュリティ、プライバシー、および適切な使用基準を犠牲にすることはできません」と強調しています。議員たちはまた、「幻覚や偏りのためにしばしば知られているAIシステムの利用を、連邦政府の雇用または連邦政府の資金の終了に関する決定において、それらのモデルの十分な透明性と監視なしに容認することもできません。欠陥のある技術またはそのような技術の欠陥のある利用のために、才能と重要な研究を失うリスクはあまりにも高すぎます」と述べています。

政府効率化イニシアチブにおけるAI使用の影響に関する詳細な検討

政府効率化部門(DOGE)の運用効率化の取り組みにおける人工知能の利用をめぐる展開中の物語は、議論と精査の嵐を巻き起こしています。同機関がイーロン・マスク氏のプロプライエタリなGrok AIではなく、MetaのLlama 2モデル(オープンソースAI)に依存したという事実は、すでに複雑な物語に、さらに複雑なレイヤーを追加しました。この状況は、政府業務へのAIの統合が持つ多面的な影響を深く掘り下げ、内在する利点とリスク、倫理的考慮事項、そして利益相反の可能性を検証する必要があります。

政府におけるAIの魅力と落とし穴

政府機能へのAIの統合には、効率性、データ分析、意思決定における変革的な進歩が約束されています。ルーチンタスクの自動化から膨大なデータセットの精査まで、AIは前例のないレベルの生産性を解き放ち、公共サービスの提供を改善する可能性を秘めています。インフラの故障を予測したり、教育をパーソナライズしたり、災害救助活動におけるリソース配分を最適化できるアルゴリズムを想像してみてください。可能性は無限にあるように見えます。

しかし、この技術革命には危険がないわけではありません。AIシステムへの依存は、倫理的ジレンマ、セキュリティ脆弱性、そして潜在的な偏りの複雑な網の目を導入します。AIモデルはデータに基づいてトレーニングされます。そのデータは社会的な偏見を反映している場合、AIはそれらの偏見を永続させ、さらに増幅することさえあります。これは、法執行、社会福祉、教育などの分野で差別的な結果につながる可能性があり、政府サービスの公平性と平等に対する重大な脅威となります。

さらに、AIの使用は、透明性と説明責任に関して深刻な問題を提起します。決定がアルゴリズムによって行われる場合、それらの決定の背後にある理論的根拠を理解することが困難になり、政府機関の行動に対する責任を問うことが難しくなります。

Llama 2対Grokの難問

GrokよりもLlama 2を選択すると、独自の一連の考慮事項が発生します。Llama 2のオープンソースの性質により、簡単にアクセスしてカスタマイズでき、政府機関はプロプライエタリなエコシステムに縛られることなく、特定のニーズに合わせて調整できます。ただし、これは、通常プロプライエタリなAIソリューションに付属する専用のサポートとメンテナンスが不足していることも意味します。

一方、プロプライエタリなAIであるGrokは、最先端のパフォーマンスと専門的な知識があることを約束します。ただし、ベンダーロックインの可能性、データのプライバシー、およびAIのトレーニングデータに由来する偏りに関する懸念も生じさせます。政府の目標と密接に関連する著名な人物に関連する特定の民間団体が、意思決定プロセスに不当な影響力を行使する可能性に関する懸念を強調しています。

利益相反の幽霊

政府のAIイニシアチブへのイーロン・マスク氏のエンティティ(SpaceXおよびxAI)の関与は、利益相反の幽霊を引き起こします。さまざまなセクターで既得権益を持つ著名な人物として、マスク氏の関与は、彼が政府の政策や契約の授与に及ぼす可能性のある影響について疑問を提起します。

政府はマスク氏の企業に優遇措置を与えているのだろうか?意思決定が公平に、そして公共の利益にかなうように行われることを保証するための適切な安全対策が設けられているか?これらは厳格な精査を必要とする正当な質問です。

データセキュリティとプライバシーの懸念

政府業務におけるAIの使用には、必然的に機密性の高い市民データの収集、保存、および処理が伴います。これにより、サイバー攻撃やデータ漏洩にとって魅力的なターゲットが作成されます。政府は、不正アクセスや悪用からこのデータを保護するために、堅牢なセキュリティ対策を講じる必要があります。これには、外部の脅威からデータを保護するだけでなく、内部の悪用を防止するための厳格なアクセス制御と説明責任メカニズムの確立も含まれます。

AIアルゴリズムの不透明な性質によって、データのプライバシーに関する懸念が増幅されます。市民は、自分のデータがどのように処理されているか、または自分の生活に影響を与える意思決定に使用されているかを知らないことがよくあります。この透明性の欠如は、政府への信頼を損ない、AI主導のイニシアチブに対する抵抗につながる可能性があります。

政府の将来への影響

DOGEによるAIの使用に関する議論は、特定の事例に関するものではなく、人工知能の時代における政府のより広範な将来に関するものです。政府は、リスクを軽減しながら、AIの力を活用して公共サービスを改善するにはどうすればよいでしょうか。AIが倫理的かつ透明性があり、責任を持って使用されるようにするにはどうすればよいでしょうか。

これらの質問への答えには、多面的なアプローチが必要です。

  • 明確な倫理的ガイドラインの確立: 政府におけるAIの使用を管理する明確な一連の倫理原則を成文化します。これらの原則は、公平性、透明性、説明責任、およびプライバシーの尊重を優先する必要があります。

  • 透明性と開放性の促進: AIアルゴリズムと意思決定プロセスをより透明にします。政府でAIがどのように使用されているかを説明するレポートを発行し、市民がフィードバックを提供する手段を提供します。

  • データセキュリティの保護: 機密性の高い市民データをサイバー攻撃や内部の悪用から保護するために、堅牢なセキュリティ対策を実装します。

  • 説明責任の確保: AI主導の意思決定に対する明確な説明責任の系統を確立します。AIの使用を監督し、発生する可能性のある問題に対処する責任を負う政府当局者を指名します。

  • 国民の信頼の育成: 政府におけるAIの利点とリスクについて国民を教育します。市民と協力して、彼らの懸念に対処し、この技術の責任ある使用に対する信頼を築きます。

積極的かつ思慮深いアプローチを採用することで、政府は公共の利益を保護しながら、AIの変革力を活用できます。DOGE論争は、周到な計画、オープンな対話、そして人工知能の時代における倫理原則へのコミットメントの重要性を再認識させてくれます。

展開する物語

DOGEのAI使用を取り巻くドラマはまだ終わっていません。調査が継続され、詳細が明らかになるにつれて、今回の事件は間違いなく政府内でのAI展開の将来に影響を与えるでしょう。うまくいけば、今回の事態が技術のより思慮深い統合につながるでしょう。