Ein unerwarteter Bericht zeigt, dass die Initiativen zur Straffung der Bundesbehörden des Department of Government Efficiency (DOGE) das ältere Meta AI-Modell Llama 2 anstelle von Elon Musks KI Grok verwendeten.
Das “Fork in the Road”-Memo und die Rolle von Llama 2
Laut einer Untersuchung von Wired analysierten und kategorisierten Mitarbeiter, die Elon Musks DOGE (Department of Government Efficiency) angehören und innerhalb des Office of Personnel Management tätig sind, mit Metas Llama 2-Modell sorgfältig Antworten von Bundesbediensteten auf das umstrittene “Fork in the Road”-E-Mail, das Ende Januar an die gesamte Regierung verschickt wurde.
Das “Fork in the Road”-Memo, das einer früheren Mitteilung von Musk an Twitter-Mitarbeiter auffallend ähnlich war, stellte Bundesangestellten vor eine Wahl: “Loyalität” zeigen, indem sie die überarbeitete Rückkehr-ins-Büro-Regelung der Regierung akzeptieren, oder zurücktreten. Zu diesem Zeitpunkt kursierten Gerüchte, dass DOGE KI einsetzte, um Regierungsangestelltendaten zu verarbeiten. Die Bestätigung ist inzwischen eingetroffen und untermauert den Einsatz von Llama 2, um Mitarbeiterantworten zu durchsuchen und die Anzahl der Rücktritte zu quantifizieren.
Llama 2’s kontroverse Vergangenheit: Militärische Anwendungen und Metas Antwort
Die Geschichte von Llama 2 ist nicht ohne Kontroversen. Insbesondere im November nutzten chinesische Forscher Llama 2 als Grundlage für ein KI-Modell, das vom chinesischen Militär eingesetzt wurde. Diese Enthüllung löste eine Gegenreaktion aus, die Meta zunächst veranlasste, die “unbefugte” Abhängigkeit der Forscher von einem “einzelnen” und “veralteten” Modell zu verurteilen. Meta kehrte jedoch später seine Richtlinien um, die militärische Anwendungen untersagten, und erweiterte den Zugang zu seinen KI-Modellen für US-amerikanische Zwecke der nationalen Sicherheit.
Meta hat öffentlich erklärt, dass es sich verpflichtet, Llama US-Regierungsbehörden zugänglich zu machen, auch solchen, die in Verteidigungs- und nationalen Sicherheitsanwendungen tätig sind, sowie Partnern des Privatsektors, die ihre Bemühungen unterstützen. Sie kündigten Partnerschaften mit Firmen wie Accenture, Amazon Web Services, Anduril, Booz Allen, Databricks, Deloitte, IBM, Leidos, Lockheed Martin, Microsoft, Oracle, Palantir, Scale AI und Snowflake an, um den Einsatz von Llama in Regierungsbehörden zu erleichtern.
Wired legt nahe, dass die Open-Source-Natur von Metas Modellen es der Regierung ermöglicht, sie leicht zur Unterstützung von Musks Zielen einzusetzen, möglicherweise ohne ausdrückliche Zustimmung des Unternehmens. Die Feststellung des Ausmaßes des Einsatzes von Metas Modellen innerhalb der Regierung bleibt eine Herausforderung. Der Grund für DOGEs Abhängigkeit von Llama 2, insbesondere angesichts der Fortschritte von Meta mit Llama 3 und 4, ist unklar.
Begrenztes Wissen über DOGEs Verwendung von Llama 2
Details zu DOGEs spezifischer Anwendung von Llama 2 sind weiterhin rar. Wireds Untersuchung ergab, dass DOGE das Modell lokal einsetzte, was darauf hindeutet, dass Daten wahrscheinlich nicht über das Internet übertragen wurden, wodurch Bedenken hinsichtlich des Datenschutzes gemildert wurden, die von vielen Regierungsangestellten geäußert wurden.
Bedenken des Kongresses und Forderungen nach Untersuchung
In einem Brief vom April an Russell Vought, Direktor des Office of Management and Budget, forderten über 40 Gesetzgeber eine gründliche Untersuchung von DOGEs Nutzung von KI. Sie äußerten Bedenken, dass eine solche Nutzung neben potenziellen Sicherheitsrisiken die erfolgreiche und angemessene Einführung von KI innerhalb der Regierung untergraben könnte.
Der Brief bezog sich speziell auf einen DOGE-Mitarbeiter und ehemaligen SpaceX-Angestellten, der angeblich Musks xAI Grok-2-Modell verwendete, um einen “KI-Assistenten” zu entwickeln. Er erwähnte auch die Verwendung eines Chatbots namens “GSAi”, der auf Anthropic- und Meta-Modellen basiert, zur Analyse von Vertrags- und Beschaffungsdaten. Darüber hinaus wurde DOGE mit Software namens AutoRIF in Verbindung gebracht, die angeblich dazu dient, Massenentlassungen in der gesamten Regierung zu beschleunigen.
Die Gesetzgeber betonten “große Besorgnis über die Sicherheit” im Zusammenhang mit DOGEs Verwendung von “KI-Systemen zur Analyse von E-Mails eines großen Teils der zwei Millionen Bundesangestellten, in denen sie die Leistungen der Vorwoche beschreiben” und verwiesen auf mangelnde Transparenz.
Diese E-Mails folgten den “Fork in the Road”-E-Mails, die Angestellte dazu aufforderten, wöchentliche Leistungen in fünf Stichpunkten darzulegen. Angestellte äußerten Besorgnis über die Art der Antworten und befürchteten, dass DOGE möglicherweise sensible Informationen ohne ordnungsgemäße Sicherheitsfreigaben anfordert.
Wired konnte nicht endgültig bestätigen, ob Llama 2 auch zur Analyse dieser E-Mail-Antworten verwendet wurde. Bundesangestellte deuteten gegenüber Wired jedoch an, dass DOGE wahrscheinlich “ihren Code” aus dem “Fork in the Road”-E-Mail-Experiment “wiederverwenden” würde, wenn dies eine kluge Entscheidung wäre.
Warum Grok nicht verwendet wurde
Es stellt sich die Frage: Warum hat DOGE Grok nicht genutzt?
Die wahrscheinliche Erklärung ist, dass Grok, da es sich zu diesem Zeitpunkt um ein proprietäres Modell handelte, für DOGEs Aufgabe im Januar nicht verfügbar war. Laut Wired könnte DOGE seine Abhängigkeit von Grok in Zukunft verstärken, insbesondere angesichts der Ankündigung von Microsoft, dass es ab dieser Woche damit beginnen wird, xAIs Grok 3-Modelle in seiner Azure AI Foundry zu hosten, wodurch die potenziellen Anwendungen des Modells erweitert werden.
Bedenken der Gesetzgeber: Interessenkonflikte und Datenlecks
In ihrem Brief forderten die Gesetzgeber Vought auf, potenzielle Interessenkonflikte im Zusammenhang mit Musk zu untersuchen und warnten gleichzeitig vor potenziellen Datenlecks. Sie versicherten, dass KI, wie sie von DOGE eingesetzt wird, noch nicht für Regierungsanwendungen geeignet sei.
Sie argumentierten, dass “ohne angemessene Schutzmaßnahmen die Eingabe sensibler Daten in ein KI-System es in den Besitz des Betreibers eines Systems bringt – ein massiver Verstoß gegen das öffentliche und Angestelltenvertrauen und eine Zunahme der Cybersicherheitsrisiken im Zusammenhang mit diesen Daten”. Sie stellten ferner fest, dass “generative KI-Modelle auch häufig Fehler machen und erhebliche Verzerrungen aufweisen – die Technologie ist einfach noch nicht für den Einsatz in risikoreichen Entscheidungsprozessen ohne ordnungsgemäße Überprüfung, Transparenz, Aufsicht und Schutzmaßnahmen bereit”.
Während Wireds Bericht andeutet, dass DOGE keine sensiblen Daten aus den “Fork in the Road”-E-Mails an eine externe Quelle übermittelt hat, setzen sich die Gesetzgeber für eine robustere Überprüfung von KI-Systemen ein, um “das Risiko der Weitergabe persönlich identifizierbarer oder anderweitig sensibler Informationen an die Bereitsteller des KI-Modells” zu mindern.
Ein vorherrschendes Problem ist, dass Musk seine eigenen Modelle zunehmend nutzen könnte, möglicherweise um von Regierungsdaten zu profitieren, auf die seine Konkurrenten keinen Zugriff haben, und gleichzeitig diese Daten Breach-Risiken auszusetzen. Die Gesetzgeber hoffen, dass DOGE gezwungen wird, seine KI-Systeme einzustellen. Vought scheint jedoch eher mit DOGEs Ansatz übereinzustimmen, wie seine KI-Richtlinien für den Bundeseinsatz belegen, die Behörden ermutigen, “Barrieren für Innovationen abzubauen und das beste Preis-Leistungs-Verhältnis für den Steuerzahler zu bieten”.
Der Brief der Gesetzgeber betont, dass “während wir die Integration neuer, genehmigter KI-Technologien durch die Bundesregierung unterstützen, die die Effizienz oder Wirksamkeit verbessern können, wir nicht Sicherheit, Datenschutz und angemessene Nutzungsstandards beim Umgang mit Bundesdaten opfern können”. Sie erklären auch, dass “wir auch die Verwendung von KI-Systemen, die oft für Halluzinationen und Verzerrungen bekannt sind, bei Entscheidungen über die Beendigung des Bundesbeschäftigungsverhältnisses oder der Bundesfinanzierung ohne ausreichende Transparenz und Aufsicht über diese Modelle nicht dulden können – das Risiko, Talente und kritische Forschung aufgrund fehlerhafter Technologie oder fehlerhafter Verwendung solcher Technologie zu verlieren, ist einfach zu hoch”.
Tiefer Einblick in die Auswirkungen des KI-Einsatzes bei Initiativen zur Effizienzsteigerung in der Regierung
Die sich entfaltende Saga über die Nutzung künstlicher Intelligenz durch das Department of Government Efficiency (DOGE) bei seinen Bemühungen zur operativen Rationalisierung hat einen Sturm der Debatten und kritischen Überprüfungen entfacht. Die Enthüllung, dass die Behörde sich auf Metas Llama 2-Modell – eine Open-Source-KI – und nicht auf Elon Musks proprietäre Grok AI stützte, hat einer ohnehin schon komplizierten Erzählung eine weitere Komplexitätsebene hinzugefügt. Diese Situation rechtfertigt einen tiefen Einblick in die vielschichtigen Auswirkungen der Integration von KI in Regierungsabläufe, wobei die inhärenten Vorteile und Risiken, die ethischen Erwägungen und das Potenzial für Interessenkonflikte untersucht werden.
Der Reiz und die Fallstricke von KI in der Regierung
Die Integration von KI in Regierungsfunktionen verspricht transformative Fortschritte in Bezug auf Effizienz, Datenanalyse und Entscheidungsfindung. Von der Automatisierung routinemäßiger Aufgaben bis hin zur Durchforstung riesiger Datensätze birgt KI das Potenzial, beispiellose Produktivitätsgrade freizusetzen und die Bereitstellung öffentlicher Dienstleistungen zu verbessern. Man stelle sich Algorithmen vor, die Infrastrukturmängel vorhersagen, Bildung personalisieren oder die Ressourcenverteilung bei Katastrophenhilfemaßnahmen optimieren können. Die Möglichkeiten scheinen endlos zu sein.
Diese technologische Revolution ist jedoch nicht ohne ihre Gefahren. Die Abhängigkeit von KI-Systemen führt ein komplexes Netz ethischer Dilemmata, Sicherheitslücken und potenzieller Verzerrungen ein. KI-Modelle werden mit Daten trainiert, und wenn diese Daten gesellschaftliche Vorurteile widerspiegeln, wird die KI diese Vorurteile aufrechterhalten und sogar verstärken. Dies stellt eine erhebliche Bedrohung für Fairness und Gleichheit bei staatlichen Dienstleistungen dar, was potenziell zu diskriminierenden Ergebnissen in Bereichen wie Strafverfolgung, Sozialhilfe und Bildung führt.
Darüber hinaus wirft der Einsatz von KI tiefgreifende Fragen in Bezug auf Transparenz und Verantwortlichkeit auf. Wenn Entscheidungen von Algorithmen getroffen werden, wird es schwierig, die Gründe für diese Entscheidungen zu verstehen, was es schwierig macht, Regierungsbehörden für ihr Handeln zur Rechenschaft zu ziehen.
Das Llama 2 vs. Grok-Rätsel
Die Wahl von Llama 2 gegenüber Grok bringt eine eigene Reihe von Überlegungen mit sich. Die Open-Source-Natur von Llama 2 macht es leicht zugänglich und anpassbar, sodass Regierungsbehörden es an ihre spezifischen Bedürfnisse anpassen können, ohne an ein proprietäres Ökosystem gebunden zu sein. Dies bedeutet jedoch auch, dass es nicht über den dedizierten Support und die Wartung verfügt, die typischerweise mit proprietären KI-Lösungen einhergehen.
Andererseits bietet Grok als proprietäre KI das Versprechen modernster Leistung und spezialisierter Expertise. Es wirft jedoch auch Bedenken hinsichtlich potenzieller Vendor-Lock-ins, des Datenschutzes und Verzerrungen auf, die sich aus den Trainingsdaten der KI ergeben. Es unterstreicht die Bedenken hinsichtlich des Potenzials, dass eine private Einheit, insbesondere eine, die mit einer hochkarätigen Person verbunden ist, die eng mit den Zielen der Regierung verbunden ist, ungebührlichen Einfluss auf die Entscheidungsprozesse ausüben könnte.
Das Gespenst von Interessenkonflikten
Die Beteiligung von Elon Musks Unternehmen (SpaceX und xAI) an staatlichen KI-Initiativen wirft das Gespenst von Interessenkonflikten auf. Als prominente Figur mit Eigeninteressen in verschiedenen Sektoren wirft Musks Beteiligung Fragen nach dem potenziellen Einfluss auf, den er auf die Regierungspolitik und die Vergabe von Aufträgen ausüben könnte.
Würde die Regierung Musks Unternehmen eine Vorzugsbehandlung gewähren? Gibt es angemessene Schutzmaßnahmen, um sicherzustellen, dass Entscheidungen unparteiisch und im besten Interesse der Öffentlichkeit getroffen werden? Dies sind legitime Fragen, die eine strenge Prüfung erfordern.
Bedenken hinsichtlich Datensicherheit und Datenschutz
Der Einsatz von KI in Regierungsabläufen beinhaltet zwangsläufig das Sammeln, Speichern und Verarbeiten sensibler Bürgerdaten. Dies schafft ein verlockendes Ziel für Cyberangriffe und Datenlecks. Die Regierung muss robuste Sicherheitsmaßnahmen implementieren, um diese Daten vor unbefugtem Zugriff und Missbrauch zu schützen. Dies umfasst nicht nur den Schutz der Daten vor externen Bedrohungen, sondern auch die Einrichtung strenger Zugriffskontrollen und Rechenschaftsmechanismen, um Missbrauch durch Insider zu verhindern.
Die Bedenken hinsichtlich des Datenschutzes werden durch die undurchsichtige Natur von KI-Algorithmen verstärkt. Bürger haben oft keine Ahnung, wie ihre Daten verarbeitet oder verwendet werden, um Entscheidungen zu treffen, die ihr Leben beeinflussen. Dieser Mangel an Transparenz untergräbt das Vertrauen in die Regierung und kann zu Widerstand gegen KI-gesteuerte Initiativen führen.
Die Auswirkungen auf die Zukunft der Regierung
Die Debatte über die Verwendung von KI durch DOGE dreht sich nicht nur um einen bestimmten Fall, sondern um die breitere Zukunft der Regierung im Zeitalter der künstlichen Intelligenz. Wie kann die Regierung die Macht der KI nutzen, um öffentliche Dienstleistungen zu verbessern und gleichzeitig die Risiken zu mindern? Wie können wir sicherstellen, dass KI ethisch, transparent und rechenschaftspflichtig eingesetzt wird?
Die Antworten auf diese Fragen erfordern einen vielschichtigen Ansatz:
Festlegung klarer ethischer Richtlinien: Kodifizierung eines klaren Satzes ethischer Prinzipien, die die Verwendung von KI in der Regierung regeln. Diese Prinzipien sollten Fairness, Transparenz, Verantwortlichkeit und Achtung der Privatsphäre priorisieren.
Förderung von Transparenz und Offenheit: Gestaltung von KI-Algorithmen und Entscheidungsprozessen transparenter. Veröffentlichung von Berichten, die beschreiben, wieKI in der Regierung eingesetzt wird, und Bereitstellung von Möglichkeiten für Bürger, Feedback zu geben.
Schutz der Datensicherheit: Implementierung robuster Sicherheitsmaßnahmen, um sensible Bürgerdaten vor Cyberbedrohungen und Missbrauch durch Insider zu schützen.
Gewährleistung der Verantwortlichkeit: Einrichtung klarer Verantwortlichkeiten für KI-gesteuerte Entscheidungen. Benennen von Regierungsbeamten, die für die Überwachung der Verwendung von KI und die Behebung etwaiger Probleme verantwortlich sind.
Pflege des öffentlichen Vertrauens: Aufklärung der Öffentlichkeit über die Vorteile und Risiken von KI in der Regierung. Zusammenarbeit mit Bürgern, um ihre Bedenken auszuräumen und Vertrauen in die verantwortungsvolle Verwendung dieser Technologie aufzubauen.
Durch einen proaktiven und durchdachten Ansatz kann die Regierung die transformative Kraft der KI nutzen und gleichzeitig das öffentliche Interesse wahren. Die DOGE-Kontroverse dient als wertvolle Erinnerung an die Bedeutung sorgfältiger Planung, eines offenen Dialogs und des Engagements für ethische Prinzipien im Zeitalter der künstlichen Intelligenz.
Die sich entfaltende Geschichte
Das Drama um die KI-Nutzung von DOGE ist noch lange nicht vorbei. Da die Untersuchungen andauern und weitere Details ans Licht kommen, wird der Vorfall zweifellos Auswirkungen auf die zukünftige KI-Bereitstellung innerhalb der Regierung haben. Hoffentlich führt diese Situation zu einer durchdachteren Integration von Technologie.