Het vertrek van Elon Musk uit het Defense Operational Guidance Enhancement (DOGE)-initiatief lijkt misschien een belangrijke gebeurtenis, maar de werkelijke impact ligt in de mate waarin het publiek waakzaam blijft. Het echte verhaal gaat niet alleen over bezuinigingen of Musks theatrale vertoon; het gaat over de verraderlijke integratie van ideologische projecten in de technische systemen die de Amerikaanse overheid besturen.
In februari schetste ik het concept van een "AI-coup", waarbij Artificial Intelligence minder functioneert als een hulpmiddel en meer als een spektakel en rechtvaardiging. Large Language Models (LLM’s) dienen als contextgeneratoren en bieden een handige dekmantel voor acties waar niemand verantwoordelijkheid voor wil nemen. Elon Musk heeft een vergelijkbare rol gespeeld door het publiek af te leiden met sensationele vertoningen terwijl hij radicale veranderingen doorvoerde.
Een van de meest flagrante voorbeelden was het terugdraaien van de financiering van een programma dat 26 miljoen sterfgevallen door AIDS, inclusief kinderen, had voorkomen. Gekozen functionarissen negeerden de kwestie grotendeels en deden alsof ze hulpeloos waren.
Musks controversiële fratsen dienden als een handige rookgordijn voor de radicale ontmanteling van de federale overheid. Hoewel dit een protestbeweging aan de basis veroorzaakte en de verkoop van Tesla negatief beïnvloedde, maskeerde het de diepere kwestie van AI-integratie.
Terwijl Musk en Trump de ideologisch gedreven bezuinigingen van DOGE hebben gepromoot, onthulde een analyse in The Atlantic dat de totale federale uitgaven eigenlijk zijn gestegen. De AI-transformatie van het federale personeelsbestand, aangeprezen als een middel tot "efficiency binnen de overheid", gaat grotendeels onopgemerkt door. DOGE gebruikte Llama 2 om e-mails van federale werknemers te beoordelen en te classificeren, maar het contract van Palantir van 113 miljoen dollar om een enorme civiele surveillance-infrastructuur te creëren, benadrukt een verontrustende trend. Het bedrijf integreert ook Musks Grok-taalmodel in zijn platform.
Programmeerfouten
xAI’s Grok, onder Musks directe controle, verschaft een verontrustend voorbeeld. Het model heeft op onschuldige vragen gereageerd met opmerkingen die de realiteit van witte genocide in Zuid-Afrika promoten. Deze manipulatie van de verborgen systeemprompt van het model onthult een onhandige poging tot sociale engineering. Het model bleek later betrokken te zijn bij Holocaust-ontkenning, wat xAI toeschreef aan een "programmeerfout".
xAI reageerde op het "witte genocide"-incident door te stellen dat de promptwijziging interne beleidsregels schond. Ze voegden eraan toe dat toekomstige wijzigingen in de systeemprompt aan beoordeling zouden worden onderworpen.
Deze incidenten benadrukken de inherente risico’s van systeemprompts. Ze kunnen worden gewijzigd door iedereen die controle heeft over het model en worden pas na detectie aan onderzoek onderworpen. Vertrouwen op bedrijfs-AI-modellen bij besluitvorming van de overheid verleent immense politieke macht aan tech-elites.
Typisch omvat de adoptie van technologie in de overheid zorgvuldige afweging en beveiligingsonderzoeken. De implementatie van DOGE mist passend toezicht, wat zorgen oproept over de onafhankelijkheid van audits. Door bureaugegevens in een unified model te integreren, houdt DOGE geen rekening met de specifieke behoeften van individuele agentschappen. In wezen implementeert DOGE transformerende veranderingen zonder de noodzaak, de toereikendheid of het voordeel voor de burgers te beoordelen.
Als de Trump-regering werkelijk om het bouwen van betrouwbare systemen gaf, zouden hun acties dat weerspiegelen. In plaats daarvan hebben DOGE en de Trump-regering het toezicht op de vooringenomenheid in bedrijfs-AI-modellen en gevallen van manipulatie van systeemprompts gesmoord. Na de intrekking van de financiering van AI-bias onderzoek door DOGE, verbiedt een nieuwe wet die door het Congres is aangenomen, alle nieuwe wetten met betrekking tot AI-toezicht voor de komende tien jaar.
Onbetrouwbare Werknemers
Musks vertrek bij DOGE laat een nalatenschap achter, gecementeerd door de selectie van Palantir, het door Thiel opgerichte AI-bedrijf dat door Musk is gekozen. Musk en Thiel waren medeoprichters van Paypal, en Thiel heeft zich sceptisch uitgelaten over de compatibiliteit van vrijheid en democratie.
De concentratie van de macht die door Musk via DOGE is geïnitieerd, zal blijven bestaan, zij het op een meer discrete manier. Hoewel zijn vertrek een overwinning betekent voor degenen die hem tegenwerkten, gaat het werk van DOGE door onder leiding van bureaucraten die zijn ingehuurd vanwege hun loyaliteit.
Het ware doel van DOGE was nooit de eliminatie van overheidsverspilling, maar de automatisering van de bureaucratie met minder verantwoordingsmaatregelen. Dit doel van "doeltreffendheid van de overheid" blijft slecht gedefinieerd. Stroomlijning van de overheid moet de interacties van de burgers met diensten en informatie vereenvoudigen. In plaats daarvan hebben ontslagen systemische knelpunten gecreëerd en tegelijkertijd de privacy aangetast. IRS-bezuinigingen hebben zorgen doen rijzen over audits en terugbetalingen, wat mogelijk miljarden aan verloren inkomsten kost.
Het doel van DOGE was niet om de bureaucratie te optimaliseren, maar om het menselijke element te elimineren. Het geeft prioriteit aan efficiëntie in industriële stijl, categoriseert burgers en gaat uit van systemisch misbruik. Rechten en privileges worden vervolgens toegekend of geweigerd op basis van vooroordelen die in het AI-systeem zijn ingebed.
Degenen die de definitie en automatisering van reacties op deze categorieën controleren, oefenen aanzienlijke macht uit. Modellen weerspiegelen de beslissingen van degenen die ze trainen, inclusief getolereerde vooroordelen en optimalisatiedoelen. Met de huidige beheerders die algoritmische sporen gebruiken, verliest de bureaucratie haar laatste band met de menselijkheid.
Administratieve Fouten
Bureaucratie en bureaucratische fouten zijn niets nieuws. Wat ongekend is, is de scheiding van menselijke verantwoordelijkheid voor fouten, waardoor onverschilligheid ten aanzien van het vermijden ervan wordt bevorderd.
Neem het gezondheidsrapport van Robert F. Kennedy Jr., dat verzonnen citaten bevatte. Deze daad zou historisch gezien een schandaal zijn geweest, maar het werd afgedaan als een "formatteringsfout". Kennedy omarmt beleidsmaatregelen die niet door bewijs worden ondersteund, en de AI-generatie van dit rapport suggereert een prioritering van presentatie boven legitiem wetenschappelijk onderzoek. De automatisering van verzonnen bewijs is slechts één manier waarop AI een hulpmiddel voor het bestuur is geworden.
DOGE lijkt meer gericht op het bestraffen van oppositie tegen Trump - migranten, academici, raciale minderheden - en de brede inspanningen leiden tot onvermijdelijke fouten. De deportatie van Kilmar Abrego Garcia, toegeschreven aan een "administratieve fout", is hier een voorbeeld van. Dit is een voorbeeld van een opzettelijke wapening van fouten.
Uiteindelijk streeft DOGE naar een systeem waarin controversiële uitkomsten kunnen worden toegeschreven aan "administratieve", "programmeers"- of "formatterings"-fouten. De regering verschuift de schuld naar gebrekkige hulpmiddelen en weigert de verantwoordelijkheid te nemen. In Garcia’s geval weigert de regering de fout te herstellen. Dit demonstreert een wereld van onbetrouwbare orde, waar alleen degenen die loyaliteit beloven zullen worden gespaard.
We creëren een fragiele omgeving waar gepersonaliseerde lotgevallen afhangen van de grillen van AI en de onzichtbare programmacode. Wat gebeurt er als deze AI-programma’s destabiliserende instrumenten zijn die gegevens consolideren in unified surveillance architecturen?
Hoewel Musks vertrek bij DOGE ertoe kan leiden dat de publieke aandacht afneemt, blijven de onderliggende problemen bestaan: algoritmische vooringenomenheid, gebrek aan verantwoordelijkheid en de uitholling van menselijk toezicht. Deze trends hebben, indien ze niet worden tegengegaan, het potentieel om de fundamenten van een rechtvaardige en billijke samenleving te ondermijnen.