정부 감축에 쓰인 AI는 머스크의 Grok이 아니었다

Meta의 Llama 2 AI, 머스크의 Grok 대신 정부 인력 감축에 사용, 보고서 밝혀

정부 효율성 부서(Department of Government Efficiency, DOGE)의 연방 인력 효율화 이니셔티브에 Elon Musk의 AI Grok이 아닌 Meta의 Llama 2 AI 모델이 사용되었다는 놀라운 사실이 밝혀졌습니다.

“갈림길” 메모와 Llama 2의 역할

Wired의 검토에 따르면, DOGE는 인사관리처(Office of Personnel Management) 내에서 Meta의 Llama 2 모델을 사용하여 1월 말 정부 전체에 발송된 논란의 여지가 있는 “갈림길(Fork in the Road)” 이메일에 대한 연방 공무원의 응답을 꼼꼼하게 분석하고 분류했습니다.

Musk가 Twitter 직원에게 보냈던 이전 통신과 매우 유사한 “갈림길” 메모는 연방 노동자들에게 선택권을 제시했습니다. 정부의 수정된 복귀 정책을 수락함으로써 “충성심”을 보이거나 사직을 선택하는 것입니다. 당시 DOGE가 AI를 활용하여 공무원 데이터를 처리하고 있다는 소문이 돌았습니다. 이후 Llama 2를 사용하여 직원 응답을 분류하고 사직자 수를 수량화했다는 사실이 확인되었습니다.

Llama 2의 논란의 과거: 군사적 응용과 Meta의 대응

Llama 2의 역사는 논란이 없지 않습니다. 특히 지난 11월 중국 연구진은 Llama 2를 중국군이 사용하는 AI 모델의 기반으로 활용했습니다. 이 사실이 알려지자 Meta는 처음에는 연구진의 “무단” 사용과 “단일”하고 “구식” 모델에 대한 의존을 비난했습니다. 그러나 Meta는 이후 군사적 응용을 금지하는 정책을 뒤집고 미국 국가 안보 목적을 위해 AI 모델에 대한 접근을 확대했습니다.

Meta는 국방 및 국가 안보 관련 애플리케이션에 관련된 기관뿐 아니라 해당 기관의 노력을 지원하는 민간 부문 파트너를 포함한 미국 정부 기관이 Llama에 접근할 수 있도록 노력하고 있다고 공개적으로 밝혔습니다. Accenture, Amazon Web Services, Anduril, Booz Allen, Databricks, Deloitte, IBM, Leidos, Lockheed Martin, Microsoft, Oracle, Palantir, Scale AI 및 Snowflake와 같은 회사와 협력하여 정부 기관 전체에 Llama 배포를 지원한다고 발표했습니다.

Wired는 Meta 모델의 오픈 소스 특성으로 인해 정부가 회사 동의 없이도 Musk의 목표를 지원하는 데 쉽게 사용할 수 있다고 제안합니다. 정부 내에서 Meta 모델의 배포 범위를 식별하는 것은 여전히 과제입니다. DOGE가 Llama 3 및 4에 대한 Meta의 발전을 고려할 때 특히 Llama 2에 의존하는 이유가 불분명합니다.

DOGE의 Llama 2 사용에 대한 제한된 정보

DOGE의 Llama 2의 특정 적용에 대한 자세한 내용은 여전히 부족합니다. Wired의 조사에 따르면 DOGE는 모델을 로컬로 배포하여 데이터가 인터넷을 통해 전송되었을 가능성이 낮아 많은 정부 직원이 제기한 개인 정보 보호 문제를 완화했습니다.

의회의 우려와 조사 촉구

지난 4월 Russell Vought 예산관리국 국장에게 보낸 서한에서 40명 이상의 의원들은 DOGE의 AI 활용에 대한 철저한 조사를 요구했습니다. 그들은 잠재적인 보안 위험과 함께 이러한 사용이 정부 내에서 AI의 성공적이고 적절한 채택을 저해할 수 있다는 우려를 표명했습니다.

서한은 특히 DOGE 직원과 전 SpaceX 직원이 Musk의 xAI Grok-2 모델을 사용하여 “AI 지원”을 개발했다고 언급했습니다. 또한 Anthropic 및 Meta 모델을 기반으로 하는 “GSAi”라는 챗봇을 사용하여 계약 및 조달 데이터를 анализа한다는 내용도 언급되어 있습니다. 또한 DOGE는 정부 전체에서 대량 해고를 촉진하도록 설계된 것으로 알려진 AutoRIF라는 소프트웨어와 관련되어 있습니다.

의원들은 투명성 부족을 언급하면서 “200만 명의 연방 노동력 대다수로부터 지난주 업적을 설명하는 이메일을 분석하기 위해 AI 시스템을 사용하는 것과 관련된 보안에 대한 주요 우려”를 강조했습니다.

이 이메일은 “갈림길” 이메일에 이어 직원들에게 5개 항목으로 주간 업적을 설명하도록 요청했습니다. 직원들은 DOGE가 적절한 보안 허가 없이 민감한 정보를 요청할 수 있다는 두려움 때문에 응답의 성격에 대해 우려를 표명했습니다.

Wired는 Llama 2가 이러한 이메일 응답을 구문 분석하는 데 사용되었는지 여부를 명확하게 확인할 수 없었습니다. 그러나 연방 노동자들은 Wired에 DOGE가 타당한 결정이라면 “갈림길” 이메일 실험에서 “코드를 재사용”할 가능성이 높다고 말했습니다.

Grok이 사용되지 않은 이유

왜 DOGE가 Grok을 활용하지 않았을까요?

가장 가능성 있는 설명은 당시 Grok이 독점 모델이었기 때문에 1월 DOGE의 작업에 사용할 수 없었다는 것입니다. Wired에 따르면 DOGE는 특히 Microsoft가 이번 주에 Azure AI Foundry에서 xAI의 Grok 3 모델을 호스팅하기 시작하여 모델의 잠재적 응용 프로그램을 확장할 것이라고 발표한 점을 고려할 때 앞으로 Grok에 대한 의존도를 높일 수 있습니다.

의원들의 우려: 이해 상충 및 데이터 유출

의원들은 서한에서 Vought에게 Musk와 관련된 잠재적인 이해 상충을 조사하고 잠재적인 데이터 유출에 대해 경고할 것을 촉구했습니다. 그들은 DOGE가 사용하는 AI가 정부 애플리케이션에 아직 적합하지 않다고 주장했습니다.

그들은 “적절한 보호 장치 없이 민감한 데이터를 AI 시스템에 공급하면 시스템 운영자의 소유가 되며 이는 공공 및 직원 신뢰의 막대한 위반이며 해당 데이터를 둘러싼 사이버 보안 위험이 증가합니다”라고 주장했습니다. 그들은 “생성적 AI 모델도 오류를 자주 발생시키고 상당한 편향을 보입니다. 기술은 적절한 검토, 투명성, 감독 및 안전 장치 없이 고위험 의사 결정에 사용할 준비가 되어 있지 않습니다.”라고 덧붙였습니다.

Wired의 보고서에 따르면 DOGE는 “갈림길” 이메일에서 외부 소스로 민감한 데이터를 전송하지 않았지만 의원들은 “AI 모델 배포자와 개인 식별 정보 또는 기타 민감한 정보를 공유할 위험”을 완화하기 위해 AI 시스템에 대한 보다 강력한 검토를 주장하고 있습니다.

만연한 우려는 Musk가 자신의 모델을 점점 더 활용하여 경쟁업체가 접근할 수 없는 정부 데이터로부터 잠재적으로 이익을 얻는 동시에 해당 데이터를 유출 위험에 노출시킬 수 있다는 것입니다. 의원들은 DOGE가 AI 시스템을 중단하도록 강요받기를 바랍니다. 그러나 Vought는 연방 사용에 대한 AI 지침에서 알 수 있듯이 DOGE의 접근 방식에 더 동조하며 기관이 “혁신에 대한 장벽을 제거하고 납세자에게 최상의 가치를 제공”하도록 장려합니다.

의원들의 서한은 “우리는 연방 정부가 효율성 또는 효능을 향상시킬 수 있는 새롭고 승인된 AI 기술을 통합하는 것을 지지하지만 연방 데이터와 상호 작용할 때 보안, 개인 정보 보호 및 적절한 사용 기준을 희생할 수 없습니다”라고 강조합니다. 그들은 또한 “우리는 환각과 편향으로 유명한 AI 시스템을 연방 고용 또는 연방 자금 지원의 종료와 관련된 결정에 충분한 투명성과 해당 모델의 감독 없이 사용하는 것을 용납할 수 없습니다. 결함 있는 기술 또는 그러한 기술의 결함 있는 사용으로 인해 인재와 중요한 연구를 잃을 위험이 너무 높습니다.”라고 명시합니다.

정부 효율성 이니셔티브에서 AI 사용의 의미에 대한 심층 분석

정부 효율성 부서(DOGE)의 운영 효율성 개선 노력에서 인공 지능 활용에 대한 폭풍 논쟁과 조사가 일어났습니다. 해당 기관이 Elon Musk의 독점 AI Grok이 아닌 오픈 소스 AI 인 Meta의 Llama 2 모델을 사용했다는 사실이 밝혀지면서 이미 복잡한 이야기에 복잡성이 더해졌습니다. 이 상황은 정부 운영에 AI를 통합하는 것의 다면적인 의미, 내재된 이점과 위험, 윤리적 고려 사항 및 이해 상충 가능성에 대한 심층적인 탐색이 필요합니다.

정부에서 AI의 매력과 함정

AI를 정부 기능에 통합하면 효율성, 데이터 분석 및 의사 결정에서 혁신적인 발전이 약속됩니다. 일상적인 작업 자동화에서 방대한 데이터 세트를 스캔하는 데 이르기까지 AI는 전례 없는 수준의 생산성을 높이고 공공 서비스 제공을 개선할 수 있는 잠재력을 가지고 있습니다. 인프라 고장을 예측하고, 교육을 개인화하거나, 재해 구호 노력에서 리소스 할당을 최적화할 수 있는 알고리즘을 상상해 보십시오. 가능성은 무한해 보입니다.

그러나 이러한 기술 혁명에는 위험이 따릅니다. AI 시스템에 대한 의존은 복잡한 윤리적 딜레마, 보안 취약성 및 잠재적인 편향 웹을 도입합니다. AI 모델은 데이터로 학습되며 해당 데이터가 사회적 편견을 반영하는 경우 AI는 이러한 편향을 영속화하고 증폭시킬 수도 있습니다. 이는 법 집행, 사회 복지 및 교육과 같은 영역에서 차별적 결과를 초래할 수 있는 정부 서비스의 공정성과 평등에 대한 심각한 위협을 제기합니다.

또한 AI 사용은 투명성과 책임에 대한 심오한 문제를 제기합니다. 알고리즘에 의해 결정이 내려지면 이러한 결정 뒤에 있는 근거를 이해하기 어려워 정부 기관의 행동에 책임을 묻기가 어렵습니다.

Llama 2 대 Grok 수수께끼

Grok보다 Llama 2를 선택하면 자체 고려 사항이 발생합니다. Llama 2의 오픈 소스 특성 덕분에 정부 기관은 독점 생태계에 갇히지 않고도 특정 요구 사항에 맞게 조정할 수 있으므로 쉽게 액세스하고 사용자定義할 수 있습니다. 그러나 이는 일반적으로 독점 AI 솔루션에 제공되는 전용 지원 및 유지 관리가 부족하다는 의미이기도 합니다.

반면에 독점 AI인 Grok은 최첨단 성능과 전문 지식을 약속합니다. 그러나 AI의 학습 데이터에서 비롯되는 잠재적인 공급 업체 종속, 데이터 개인 정보 보호 및 편향에 대한 우려도 제기합니다. 이를 통해 정부 목표와 밀접하게 관련된 유명 인사와 관련된 사적인 기관이 의사 결정 프로세스에 부당한 영향을 미칠 가능성에 대한 우려가 강조됩니다.

이해 상충의 망령

정부 AI 이니셔티브에 Elon Musk의 엔터티(SpaceX 및 xAI)가 관여하면 이해 상충의 망령이 발생합니다. 다양한 분야에 기득권을 가진 저명한 인물로서 Musk의 관여는 그가 정부 정책 및 계약 수여에 미칠 수 있는潛在적 영향력에 대한 질문을 제기합니다.

정부가 Musk의 회사에 특혜를 제공하고 있습니까? 결정이 공정하게 내려지고 공익에 가장 부합되도록 보장하기 위한 적절한 안전 장치가 마련되어 있습니까? 이는 엄격한 조사가 필요한 합법적인 질문입니다.

데이터 보안 및 개인 정보 보호 문제

정부 운영에서 AI를 사용하면 필연적으로 민감한 시민 데이터를 수집, 저장 및 처리해야 합니다. 이는 사이버 공격 및 데이터 유출에 대한 유혹적인 목표를 만듭니다. 정부는 무단 액세스 및 오용으로부터 이 데이터를 보호하기 위해 강력한 보안 조치를 구현해야 합니다. 여기에는 외부 위협으로부터 데이터를 보호할 뿐만 아니라 내부 남용을 방지하기 위해 엄격한 액세스 제어 및 책임 메커니즘을 설정하는 것도 포함됩니다.

데이터 개인 정보 보호에 대한 우려는 AI 알고리즘의 불투명한 특성으로 증폭됩니다. 시민은 종종 자신의 데이터가 어떻게 처리되고 있는지 또는 자신의 삶에 영향을 미치는 결정을 내리는 데 사용되는지 알지 못합니다. 이러한 투명성 부족은 정부에 대한 신뢰를 훼손하고 AI 기반 이니셔티브에 대한 저항으로 이어질 수 있습니다.

정부의 미래에 미치는 영향

DOGE의 AI 사용에 대한 논쟁은 특정 사례에 대한 것뿐만 아니라 인공 지능 시대의 정부의 더 넓은 미래에 대한 것입니다. 정부는 어떻게 위험을 완화하면서 공공 서비스 개선을 위해 AI의 힘을 활용할 수 있을까요? 우리는 AI가 윤리적