Der Rücktritt von Elon Musk von der Defense Operational Guidance Enhancement (DOGE)-Initiative mag wie ein bedeutendes Ereignis erscheinen, aber seine wahre Auswirkung liegt in dem Grad, in dem die Öffentlichkeit weiterhin wachsam ist. Die wahre Geschichte dreht sich nicht nur um Budgetkürzungen oder Musks theatralische Inszenierungen; es geht um die heimtückische Integration ideologischer Projekte in die technischen Systeme, die die US-Regierung steuern.
Im Februar skizzierte ich das Konzept eines "KI-Putsches", bei dem Künstliche Intelligenz weniger als Werkzeug und mehr als Schauspiel und Rechtfertigung fungiert. Large Language Models (LLMs) dienen als Vorwandgeneratoren und bieten eine bequeme Deckung für Handlungen, für die niemand die Verantwortung übernehmen möchte. Elon Musk hat eine ähnliche Rolle gespielt und die Öffentlichkeit mit Aufsehen erregenden Darstellungen abgelenkt, während er radikale Veränderungen durchführte.
Eines der krassesten Beispiele war die Streichung der Mittel für ein Programm, das 26 Millionen Todesfälle durch AIDS, darunter Kinder, verhindert hatte. Gewählte Beamte ignorierten das Problem weitgehend und täuschten Hilflosigkeit vor.
Musks umstrittene Eskapaden dienten als bequeme Nebelkerze für den radikalen Abbau der Bundesregierung. Dies löste zwar eine Protestbewegung an der Basis aus und beeinträchtigte die Verkaufszahlen von Tesla negativ, verschleierte aber das tiefer liegende Problem der KI-Integration.
Während Musk und Trump die ideologisch motivierten Budgetkürzungen von DOGE vorangetrieben haben, ergab eine Analyse in The Atlantic, dass die gesamten Bundesausgaben tatsächlich gestiegen sind. Die KI-Transformation der Bundesbelegschaft, die als Mittel zur "Effizienzsteigerung der Regierung" angepriesen wird, bleibt weitgehend unbemerkt. DOGE nutzte Llama 2, um E-Mails von Bundesbediensteten zu überprüfen und zu klassifizieren, aber Palantirs 113-Millionen-Dollar-Vertrag zur Schaffung einer riesigen zivilen Überwachungsinfrastruktur unterstreicht einen beunruhigenden Trend. Das Unternehmen integriert auch Musks Grok-Sprachmodell in seine Plattform.
Programmierfehler
xAIs Grok, unter Musks direkter Kontrolle, liefert ein besorgniserregendes Beispiel. Das Modell hat auf harmlose Anfragen mit Kommentaren reagiert, die die Realität des weißen Völkermords in Südafrika fördern. Diese Manipulation des versteckten System-Prompts des Modells offenbart einen plumpen Versuch der Social Engineering. Später wurde festgestellt, dass sich das Modell an der Holocaustleugnung beteiligt, was xAI auf einen "Programmierfehler" zurückführte.
xAI reagierte auf den "weißen Völkermord"-Vorfall mit der Erklärung, dass die Prompt-Änderung gegen interne Richtlinien verstößt. Sie fügten hinzu, dass zukünftige System-Prompt-Änderungen einer Überprüfung unterzogen würden.
Diese Vorfälle verdeutlichen die inhärenten Risiken von System-Prompts. Sie können von jedem geändert werden, der die Kontrolle über das Modell hat, und werden erst nach der Erkennung überprüft. Das Vertrauen auf Unternehmens-KI-Modelle in der staatlichen Entscheidungsfindung verleiht den Tech-Eliten immense politische Macht.
Typischerweise beinhaltet die Einführung von Technologie in die Regierung sorgfältige Überlegungen und Sicherheitsüberprüfungen. Der DOGE-Implementierung fehlt eine angemessene Aufsicht, was Bedenken hinsichtlich der Unabhängigkeit jeglicher Überprüfungen aufwirft. Durch die Integration von Behördendaten in ein einheitliches Modell berücksichtigt DOGE nicht die spezifischen Sicherheitsbedürfnisse einzelner Behörden. Im Wesentlichen führt DOGE transformative Veränderungen durch, ohne deren Notwendigkeit, Suffizienz oder Nutzen für die Bürger zu beurteilen.
Wenn die Trump-Administration sich wirklich um den Aufbau zuverlässiger Systeme kümmern würde, würden ihre Handlungen dies widerspiegeln. Stattdessen haben DOGE und die Trump-Administration die Aufsicht über die Verzerrungen in Unternehmens-KI-Modellen und Fälle von System-Prompt-Manipulation unterdrückt. Nach der Streichung der Mittel für die KI-Bias-Forschung durch DOGE würde ein neuer vom Kongress verabschiedeter Gesetzentwurf neue Gesetze zur KI-Aufsicht für das nächste Jahrzehnt verbieten.
Abtrünnige Mitarbeiter
Musks Ausscheiden aus DOGE hinterlässt ein Vermächtnis, das durch die Auswahl von Palantir, dem von Thiel gegründeten KI-Unternehmen, das von Musk ausgewählt wurde, zementiert wird. Musk und Thiel waren Mitbegründer von Paypal, und Thiel hat Skepsis hinsichtlich der Vereinbarkeit von Freiheit und Demokratie geäußert.
Die von Musk durch DOGE initiierte Machtkonzentration wird bestehen bleiben und diskreter agieren. Während sein Ausscheiden einen Sieg für diejenigen darstellt, die sich ihm widersetzt haben, wird die Arbeit von DOGE unter der Leitung von Bürokraten fortgesetzt, die wegen ihrer Loyalität eingestellt wurden.
Der wahre Zweck von DOGE war nie die Beseitigung von staatlicher Verschwendung, sondern die Automatisierung der Bürokratie mit weniger Rechenschaftspflichten. Dieses Ziel der "Effizienzsteigerung der Regierung" ist weiterhin schlecht definiert. Die Straffung der Regierung sollte die Interaktion der Bürger mit Diensten und Informationen vereinfachen. Stattdessen haben Entlassungen systembedingte Staus geschaffen und gleichzeitig die Privatsphäre beeinträchtigt. IRS-Mittelkürzungen haben Bedenken hinsichtlich Prüfungen und Rückerstattungen geweckt, die möglicherweise Milliarden an verlorenen Einnahmen kosten.
Der Zweck von DOGE war nicht die Optimierung der Bürokratie, sondern die Eliminierung des menschlichen Elements. Es priorisiert Effizienz im Industriestil, kategorisiert Bürger und nimmt systematischen Missbrauch an. Rechte und Privilegien werden dann basierend auf in das KI-System eingebetteten Verzerrungen gewährt oder verweigert.
Diejenigen, die die Definition und Automatisierung von Reaktionen auf diese Kategorien kontrollieren, üben bedeutende Macht aus. Modelle spiegeln die Entscheidungen derjenigen wider, die sie trainieren, einschließlich tolerierter Verzerrungen und Optimierungsziele. Mit den derzeitigen Administratoren, die algorithmische Spuren verwenden, verliert die Bürokratie ihre letzte Verbindung zur Menschlichkeit.
Verwaltungsfehler
Bürokratie und bürokratische Fehler sind nichts Neues. Was jedoch beispiellos ist, ist die Trennung der menschlichen Rechenschaftspflicht für Fehler, die Gleichgültigkeit gegenüber deren Vermeidung fördert.
Betrachten Sie den Gesundheitsbericht von Robert F. Kennedy Jr., der erfundene Zitate enthielt. Diese Handlung wäre historisch ein Skandal gewesen, wurde aber als "Formatierungsfehler" abgetan. Kennedy befürwortet eine Politik, die nicht durch Beweise gestützt wird, und die KI-Generierung dieses Berichts deutet auf eine Priorisierung der Präsentation gegenüber legitimen wissenschaftlichen Erkenntnissen hin. Die Automatisierung erfundener Beweise ist nur eine von vielen Möglichkeiten, wie KI zu einem Werkzeug für die Verwaltung geworden ist.
DOGE scheint sich mehr darauf zu konzentrieren, die Opposition gegen Trump zu bestrafen – Migranten, Akademiker, ethnische Minderheiten – und seine weitreichenden Bemühungen führen zu unvermeidlichen Fehlern. Die Abschiebung von Kilmar Abrego Garcia, die auf einen "Verwaltungsfehler" zurückgeführt wurde, ist ein Beispiel dafür. Dies ist ein Beispiel für eine absichtliche Instrumentalisierung von Fehlern.
Letztendlich zielt DOGE darauf ab, ein System zu schaffen, in dem kontroverse Ergebnisse "Verwaltungs-", "Programmier-" oder "Formatierungsfehlern" angelastet werden können. Die Verwaltung verlagert die Schuld auf fehlerhafte Werkzeuge und weigert sich, die Verantwortung zu übernehmen. Im Fall von Garcia weigert sich die Verwaltung, den Fehler zu beheben. Dies demonstriert eine Welt unzuverlässiger Ordnung, in der nur diejenigen verschont bleiben, die Loyalität schwören.
Wir schaffen ein fragiles Umfeld, in dem personalisierte Schicksale von den Launen der KI und ihrer unsichtbaren Programmierung abhängen. Was passiert, wenn diese KI-Programme destabilisierende Werkzeuge sind, die Daten in einheitlichen Überwachungsarchitekturen konsolidieren?
Während Musks Ausscheiden aus DOGE die öffentliche Aufmerksamkeit ablenken mag, bleiben die zugrunde liegenden Probleme bestehen: algorithmische Verzerrung, mangelnde Rechenschaftspflicht und die Erosion der menschlichen Aufsicht. Diese Trends haben, wenn sie nicht eingedämmt werden, das Potenzial, die Fundamente einer gerechten und gleichberechtigten Gesellschaft zu beschädigen.