La partida de Elon Musk de la iniciativa Defense Operational Guidance Enhancement (DOGE) podría parecer un evento significativo, pero su verdadero impacto reside en el grado en que el público permanece vigilante. La verdadera historia no se trata simplemente de recortes presupuestarios o de las teatralidades de Musk; se trata de la integración insidiosa de proyectos ideológicos en los sistemas técnicos que dirigen el gobierno de los Estados Unidos.
En febrero, describí el concepto de un "golpe de estado de la IA", donde la Inteligencia Artificial funciona menos como una herramienta y más como un espectáculo público y una justificación. Los Modelos de Lenguaje Grande (LLMs) sirven como generadores de pretextos, proporcionando una coartada conveniente para acciones de las que nadie desea responsabilizarse. Elon Musk ha desempeñado un papel similar, distrayendo al público con exhibiciones sensacionalistas mientras ejecuta cambios radicales.
Uno de los ejemplos más atroces fue la retirada de fondos a un programa que había evitado 26 millones de muertes por SIDA, incluidos niños. Los funcionarios electos ignoraron en gran medida el problema, fingiendo impotencia.
Las controvertidas payasadas de Musk sirvieron como una conveniente cortina de humo para el desmantelamiento radical del gobierno federal. Si bien esto provocó un movimiento de protesta popular y afectó negativamente las ventas de Tesla, enmascaró el problema más profundo de la integración de la IA.
Mientras que Musk y Trump han promovido los recortes presupuestarios de DOGE impulsados ideológicamente, un análisis en The Atlantic reveló que los gastos federales totales en realidad aumentaron. La transformación de la fuerza laboral federal mediante la IA, promocionada como un medio para la "eficiencia gubernamental", continúa en gran medida inadvertida. DOGE utilizó Llama 2 para revisar y clasificar los correos electrónicos de los empleados federales, pero el contrato de Palantir de 113 millones de dólares para crear una vasta infraestructura de vigilancia civil destaca una tendencia preocupante. La compañía también está integrando el modelo de lenguaje Grok de Musk en su plataforma.
Errores de Programación
Grok de xAI, bajo el control directo de Musk, proporciona un ejemplo preocupante. El modelo ha respondido a consultas benignas con comentarios que promueven la realidad del genocidio blanco en Sudáfrica. Esta manipulación del sistema oculto del modelo revela un intento torpe de ingeniería social. Posteriormente, se descubrió que el modelo participaba en la negación del Holocausto, lo que xAI atribuyó a un "error de programación".
xAI respondió al incidente del "genocidio blanco" afirmando que la modificación del prompt violaba las políticas internas. Agregaron que los futuros cambios en el sistema prompt estarían sujetos a revisión.
Estos incidentes resaltan los riesgos inherentes de los system prompts. Pueden ser alterados por cualquiera que tenga el control del modelo y están sujetos a escrutinio solo después de la detección. La dependencia de modelos corporativos de IA en la toma de decisiones gubernamentales otorga un inmenso poder político a las élites tecnológicas.
Normalmente, la adopción de tecnología en el gobierno implica una deliberación cuidadosa y revisiones de seguridad. La implementación de DOGE carece de la supervisión adecuada, lo que genera preocupaciones sobre la independencia de cualquier revisión. Al integrar los datos de la agencia en un modelo unificado, DOGE no considera las necesidades de seguridad específicas de las agencias individuales. En esencia, DOGE está implementando cambios transformadores sin evaluar su necesidad, suficiencia o beneficio para los ciudadanos.
Si la administración Trump realmente se preocupara por construir sistemas confiables, sus acciones lo reflejarían. En cambio, DOGE y la administración Trump han sofocado la supervisión de los sesgos en los modelos corporativos de IA y los casos de manipulación del system prompt. Tras la retirada de fondos de DOGE para la investigación del sesgo de la IA, un nuevo proyecto de ley aprobado por el Congreso prohibiría cualquier nueva ley sobre la supervisión de la IA durante la próxima década.
Empleados Rebeldes
La partida de Musk de DOGE deja atrás un legado, cimentado por la selección de Palantir, la empresa de IA fundada por Thiel elegida por Musk. Musk y Thiel fueron cofundadores de Paypal, y Thiel ha expresado escepticismo con respecto a la compatibilidad de la libertad y la democracia.
La concentración de poder iniciada por Musk a través de DOGE persistirá, operando de manera más discreta. Si bien su partida marca una victoria para quienes se opusieron a él, el trabajo de DOGE continúa bajo la dirección de burócratas contratados por su lealtad.
El verdadero propósito de DOGE nunca fue eliminar el despilfarro gubernamental, sino automatizar la burocracia con menos medidas de rendición de cuentas. Este objetivo de "eficiencia gubernamental" sigue estando mal definido. La racionalización del gobierno debería simplificar las interacciones de los ciudadanos con los servicios y la información. En cambio, los despidos han creado atascos sistémicos al tiempo que comprometen la privacidad. Los recortes de fondos al IRS han generado preocupaciones sobre las auditorías y los reembolsos, lo que podría costar miles de millones en ingresos perdidos.
El propósito de DOGE no era optimizar la burocracia, sino eliminar el elemento humano. Prioriza la eficiencia al estilo de la industria, categorizando a los ciudadanos y asumiendo el abuso sistémico. Los derechos y privilegios se otorgan o se niegan en función de los sesgos integrados en el sistema de IA.
Aquellos que controlan la definición y la automatización de las respuestas a estas categorías ejercen un poder significativo. Los modelos reflejan las decisiones de quienes los entrenan, incluidos los sesgos tolerados y los objetivos de optimización. Con los administradores actuales que utilizan rastros algorítmicos, la burocracia pierde su última conexión con la humanidad.
Errores Administrativos
La burocracia y el error burocrático no son nada nuevo. Lo que no tiene precedentes es la separación de la responsabilidad humana por los errores, promoviendo la indiferencia hacia evitarlos.
Considere el informe de salud de Robert F. Kennedy Jr., que contenía citas fabricadas. Este acto habría sido un escándalo históricamente, pero fue desestimado como un "error de formato". Kennedy adopta políticas no respaldadas por evidencia, y la generación de este informe por parte de la IA sugiere una priorización de la presentación sobre la investigación científica legítima. La automatización de la evidencia fabricada es solo una forma en que la IA se ha convertido en una herramienta para la administración.
DOGE parece estar más enfocado en castigar la oposición a Trump –migrantes, académicos, minorías raciales– y sus amplios esfuerzos generan errores inevitables. La deportación de Kilmar Abrego Garcia, atribuida a un "error administrativo", ejemplifica esto. Esto ejemplifica una weaponización intencional del error.
En última instancia, DOGE tiene como objetivo crear un sistema donde los resultados controvertidos puedan atribuirse a errores "administrativos", "de programación" o "de formato". La administración traslada la culpa a herramientas defectuosas, negándose a aceptar la responsabilidad. En el caso de García, la administración se niega a rectificar el error. Esto demuestra un mundo de orden poco confiable, donde solo aquellos que prometan lealtad se salvarán.
Estamos creando un entorno frágil donde los destinos personalizados dependen de los caprichos de la IA y su programación invisible. ¿Qué sucede cuando estos programas de IA son herramientas desestabilizadoras que consolidan datos en arquitecturas de vigilancia unificadas?
Si bien la partida de Musk de DOGE puede hacer que la atención pública disminuya, los problemas subyacentes permanecen: sesgo algorítmico, falta de rendición de cuentas y la erosión de la supervisión humana. Estas tendencias, si no se controlan, tienen el potencial de dañar los cimientos mismos de una sociedad justa y equitativa.