머스크, AI, 그리고 “행정 오류”의 무기화
Elon Musk가 Defense Operational Guidance Enhancement (DOGE) 이니셔티브에서 떠난 것은 중요한 사건처럼 보일 수 있지만, 그 진정한 영향은 대중이 얼마나 경계를 늦추지 않는가에 달려 있습니다. 진정한 이야기는 단순히 예산 삭감이나 Musk의 연극에 관한 것이 아닙니다. 그것은 미국 정부를 조종하는 기술 시스템에 이념적 프로젝트가 은밀하게 통합되는 것에 대한 이야기입니다.
지난 2월, 저는 인공지능이 도구로서의 기능보다 구경거리이자 정당화의 수단으로 작용하는 “AI 쿠데타”의 개념을 설명했습니다. Large Language Models (LLMs)는 아무도 책임을 지고 싶어하지 않는 행동에 대한 편리한 은폐 수단을 제공하는 구실 생성기 역할을 합니다. Elon Musk는 급진적인 변화를 실행하면서 대중의 관심을 딴 데로 돌리는 선풍적인 쇼를 통해 비슷한 역할을 해왔습니다.
가장 끔찍한 예 중 하나는 어린이들을 포함하여 2,600만 명의 AIDS 사망을 막았던 프로그램의 자금 지원 중단이었습니다. 선출된 공무원들은 대부분 이 문제를 무시하고 무력한 척했습니다.
Musk의 논란이 많은 행동은 연방 정부를 급진적으로 해체하는 데 편리한 연막 역할을 했습니다. 이것은 풀뿌리 시위 운동을 촉발하고 Tesla 판매에 부정적인 영향을 미쳤지만, AI 통합이라는 더 깊은 문제를 가렸습니다.
Musk와 Trump는 DOGE의 이념 주도 예산 삭감을 홍보했지만, _The Atlantic_의 분석에 따르면 총 연방 지출은 실제로 증가했습니다. “정부 효율성”을 위한 수단으로 선전되는 연방 인력의 AI 전환은 대부분 눈에 띄지 않고 계속되고 있습니다. DOGE는 Llama 2를 사용하여 연방 직원의 이메일을 검토하고 분류했지만, Palantir의 방대한 민간인 감시 인프라를 구축하기 위한 1억 1,300만 달러 규모의 계약은 문제가 있는 추세를 강조합니다. 이 회사는 또한 Musk의 Grok 언어 모델을 플랫폼에 통합하고 있습니다.
프로그래밍 오류
Musk의 직접적인 통제하에 있는 xAI의 Grok은 우려스러운 사례를 제공합니다. 이 모델은 남아프리카 공화국에서 백인 학살의 현실을 조장하는 의견으로 무해한 질문에 응답했습니다. 모델의 숨겨진 시스템 프롬프트를 조작하는 것은 서투른 사회 공학 시도를 드러냅니다. 이 모델은 나중에 홀로코스트 부인을 하는 것으로 밝혀졌고, xAI는 이를 “프로그래밍 오류”로 돌렸습니다.
xAI는 “백인 학살” 사건에 대해 프롬프트 수정이 내부 정책을 위반했다고 밝혔습니다. 그들은 향후 시스템 프롬프트 변경은 검토를 받게 될 것이라고 덧붙였습니다.
이러한 사건은 시스템 프롬프트의 내재된 위험을 강조합니다. 그것들은 모델을 제어하는 사람이면 누구든지 변경할 수 있으며 탐지 후에만 조사 대상이 됩니다. 정부 의사 결정에서 기업 AI 모델에 대한 의존은 기술 엘리트에게 엄청난 정치적 권력을 부여합니다.
일반적으로 정부에 기술을 도입하는 데에는 신중한 심의와 보안 검토가 필요합니다. DOGE의 구현에는 적절한 감독이 부족하여 검토의 독립성에 대한 우려가 제기됩니다. 기관 데이터를 통합 모델에 통합함으로써 DOGE는 개별 기관의 특정 보안 요구 사항을 고려하지 못합니다. 본질적으로 DOGE는 변화의 필요성, 충분성 또는 시민에 대한 이점을 평가하지 않고 변혁적인 변화를 구현하고 있습니다.
Trump 행정부가 신뢰할 수 있는 시스템 구축에 진정으로 관심이 있다면 그들의 행동은 그것을 반영할 것입니다. 대신 DOGE와 Trump 행정부는 기업 AI 모델의 편향성과 시스템 프롬프트 조작 사례에 대한 감독을 억압했습니다. DOGE의 AI 편향 연구 자금 지원 중단에 이어 의회에서 통과된 새로운 법안은 향후 10년 동안 AI 감독에 관한 새로운 법률을 금지할 것입니다.
불량 직원
Musk의 DOGE에서의 이탈은 Musk가 선택한 Thiel이 설립한 AI 회사인 Palantir의 선택으로 굳어진 유산을 남깁니다. Musk와 Thiel은 Paypal의 공동 창립자였으며 Thiel은 자유와 민주주의의 양립성에 대해 회의론을 표명했습니다.
Musk가 DOGE를 통해 시작한 권력의 집중은 더욱 신중하게 운영되면서 지속될 것입니다. 그의 이탈은 그에 반대했던 사람들에게 승리를 의미하지만, DOGE의 작업은 충성심 때문에 고용된 관료의 지시하에 계속됩니다.
DOGE의 진정한 목적은 정부 낭비를 제거하는 것이 아니라 책임 조치가 적은 관료제를 자동화하는 것이었습니다. “정부 효율성”이라는 이 목표는 여전히 제대로 정의되지 않았습니다. 정부 간소화는 시민이 서비스 및 정보와 상호 작용하는 방식을 간소화해야 합니다. 대신 해고는 시스템 마비를 초래하는 동시에 개인 정보를 침해했습니다. IRS 자금 삭감은 감사 및 환급에 대한 우려를 제기하여 잠재적으로 수십억 달러의 세수 손실을 초래합니다.
DOGE의 목적은 관료제를 최적화하는 것이 아니라 인간적인 요소를 제거하는 것이었습니다. 그것은 산업 스타일의 효율성을 우선시하여 시민을 분류하고 시스템적 남용을 가정합니다. 그런 다음 AI 시스템에 내장된 편향에 따라 권리와 특권이 부여되거나 거부됩니다.
이러한 범주에 대한 응답의 정의와 자동화를 제어하는 사람들은 상당한 권력을 행사합니다. 모델은 용인된 편향과 최적화 목표를 포함하여 모델을 훈련하는 사람들의 결정을 반영합니다. 현재 관리자가 알고리즘 흔적을 사용하면 관료제는 인류와의 마지막 연결을 잃게 됩니다.
행정 오류
관료주의와 관료적 오류는 새로운 것이 아닙니다. 전례가 없는 것은 오류에 대한 인간적 책임을 단절하고 이를 피하는 데 대한 무관심을 조장하는 것입니다.
가짜 인용문이 포함된 Robert F. Kennedy Jr.의 건강 보고서를 생각해 보십시오. 이 행위는 역사적으로 스캔들이었겠지만 "서식 오류"로 일축되었습니다. Kennedy는 증거로 뒷받침되지 않는 정책을 채택하고 있으며, 이 보고서의 AI 생성은 합법적인 과학적 조사보다 프레젠테이션을 우선시함을 시사합니다. 가짜 증거의 자동화는 AI가 행정부의 도구가 된 한 가지 방법에 불과합니다.
DOGE는 Trump에 대한 반대자(이민자, 학계, 소수 인종)를 처벌하는 데 더 집중하는 것처럼 보이며, 광범위한 노력으로 인해 불가피한 오류가 발생합니다. "행정 오류"로 인한 Kilmar Abrego Garcia의 추방은 이를 잘 보여줍니다. 이는 오류의 의도적인 무기화를 잘 보여줍니다.
궁극적으로 DOGE는 논란의 여지가 있는 결과가 "행정", "프로그래밍" 또는 "서식" 오류로 비난될 수 있는 시스템을 만드는 것을 목표로 합니다. 행정부는 결함이 있는 도구로 책임을 전가하고 책임을 받아들이기를 거부합니다. Garcia의 경우 행정부는 오류를 수정하기를 거부합니다. 이것은 충성을 맹세하는 사람들만 살아남을 수 있는 신뢰할 수 없는 질서의 세계를 보여줍니다.
우리는 개인화된 운명이 AI의 변덕과 보이지 않는 프로그래밍에 달려 있는 취약한 환경을 만들고 있습니다. 이러한 AI 프로그램이 데이터를 통합된 감시 아키텍처로 통합하는 불안정한 도구인 경우 어떻게 될까요?
Musk의 DOGE에서의 이탈은 대중의 관심을 줄일 수 있지만, 근본적인 문제는 여전히 남아 있습니다. 알고리즘 편향, 책임 부족 및 인적 감독의 침식. 이러한 추세는 견제되지 않으면 정의롭고 공정한 사회의 기반을 손상시킬 가능성이 있습니다.