KI-Titanen: Streit um Regeln & China

Ein gemeinsamer Nenner in den Eingaben mehrerer großer KI-Firmen ist die spürbare Besorgnis über das aufkeimende Flickwerk an KI-Regulierungen auf bundesstaatlicher Ebene. OpenAI, der Schöpfer von ChatGPT, forderte ausdrücklich eine Rettung vor dem, was es als eine drohende Flut von über 700 unterschiedlichen Gesetzesentwürfen wahrnimmt, die derzeit auf bundesstaatlicher Ebene kursieren. Die von OpenAI vorgeschlagene Lösung ist jedoch keine Bundesgesetzgebung, sondern ein schlanker, freiwilliger Rahmen. Dieser Rahmen würde, was entscheidend ist, bundesstaatliche Vorschriften präemptieren und KI-Unternehmen eine Art sicheren Hafen bieten. Im Gegenzug für diesen Schutz würden Unternehmen Zugang zu lukrativen Regierungsaufträgen erhalten und Vorabwarnungen über potenzielle Sicherheitsbedrohungen erhalten. Die Regierung wiederum wäre befugt, neue Modellfähigkeiten zu testen und sie mit ausländischen Pendants zu vergleichen.

Google schließt sich dieser Meinung an und plädiert für die Präemption von bundesstaatlichen Gesetzen durch einen “einheitlichen nationalen Rahmen für Frontier-KI-Modelle”. Dieser Rahmen sollte laut Google die nationale Sicherheit priorisieren und gleichzeitig ein Umfeld fördern, das der amerikanischen KI-Innovation förderlich ist. Im Gegensatz zu OpenAI ist Google jedoch nicht grundsätzlich gegen eine bundesstaatliche KI-Regulierung, sofern sie sich auf spezifische Anwendungen der Technologie konzentriert. Ein wichtiger Vorbehalt für Google ist, dass KI-Entwickler nicht für den Missbrauch ihrer Tools durch Dritte haftbar gemacht werden sollten. Google nutzte die Gelegenheit auch, um für eine neue Datenschutzrichtlinie des Bundes zu werben, mit dem Argument, dass diese die KI-Industrie beeinflusse.

Über die innerstaatliche Regulierung hinaus fordert Google die US-Regierung auf, sich aktiv mit anderen Regierungen über KI-Gesetzgebung auseinanderzusetzen. Das Unternehmen warnt insbesondere vor Gesetzen, die Unternehmen dazu zwingen könnten, Geschäftsgeheimnisse preiszugeben. Es stellt sich eine internationale Norm vor, bei der nur die Regierung des Heimatlandes eines Unternehmens befugt wäre, tiefgreifende Bewertungen seiner KI-Modelle durchzuführen.

Die Herausforderung China: Exportkontrollen und strategischer Wettbewerb

Das Gespenst der rasanten Fortschritte Chinas im Bereich der KI zeichnet sich in den Eingaben aller großen Akteure deutlich ab. Die ‘AI-Diffusion’-Regel, die von der Biden-Administration im Januar 2024 eingeführt wurde, um Chinas Zugang zu fortschrittlicher US-Technologie einzuschränken, wurde zu einem Schwerpunkt der Debatte. Während alle Unternehmen die Existenz der Regel anerkannten, zeigen ihre vorgeschlagenen Änderungen deutlich unterschiedliche Ansätze.

OpenAI schlägt eine Strategie der “kommerziellen Diplomatie” vor. Es schlägt vor, die oberste Ebene der Regel, die derzeit unbegrenzte Importe von US-KI-Chips erlaubt, auf weitere Länder auszudehnen. Die Bedingung? Diese Länder müssen sich zu “demokratischen KI-Prinzipien” verpflichten und KI-Systeme so einsetzen, dass sie “mehr Freiheiten für ihre Bürger fördern”. Dieser Ansatz zielt darauf ab, die technologische Führungsrolle der USA zu nutzen, um weltweit die Einführung einer werteorientierten KI-Governance zu fördern.

Microsoft teilt den Wunsch von OpenAI, die oberste Ebene der Diffusion Rule zu erweitern. Microsoft betont jedoch auch die Notwendigkeit einer verstärkten Durchsetzung. Es fordert mehr Ressourcen für das Handelsministerium, um sicherzustellen, dass hochmoderne KI-Chips nur in Rechenzentren exportiert und eingesetzt werden, die von der US-Regierung als vertrauenswürdig und sicher zertifiziert wurden. Diese Maßnahme soll verhindern, dass chinesische Unternehmen Beschränkungen umgehen, indem sie über einen wachsenden “Graumarkt” kleinerer, weniger kontrollierter Rechenzentrumsanbieter in Asien und im Nahen Osten auf leistungsstarke KI-Chips zugreifen.

Anthropic, der Entwickler des Claude-KI-Modells, plädiert für noch strengere Kontrollen für Länder in der zweiten Ebene der KI-Diffusionsregel und schränkt ihren Zugang zu Nvidias H100-Chips speziell ein. Darüber hinaus fordert Anthropic die USA auf, die Exportkontrollen auf Nvidias H20-Chips auszuweiten, die speziell für den chinesischen Markt entwickelt wurden, um den bestehenden US-Vorschriften zu entsprechen. Dies zeigt die aggressivere Haltung von Anthropic, China daran zu hindern, Technologien zu erwerben, die seine KI-Fähigkeiten stärken könnten.

Google äußert, in deutlicher Abweichung von seinen Konkurrenten, offene Ablehnung der KI-Diffusionsregel. Google räumt zwar die Gültigkeit seiner nationalen Sicherheitsziele ein, argumentiert aber, dass die Regel “unverhältnismäßige Belastungen für US-Cloud-Dienstanbieter” mit sich bringt. Diese Haltung spiegelt Googles umfassendere Bedenken hinsichtlich des Potenzials von Vorschriften wider, Innovationen zu unterdrücken und seine globale Wettbewerbsfähigkeit zu beeinträchtigen.

Über die Diffusionsregel hinaus erhöht OpenAI den Einsatz weiter, indem es ein globales Verbot von Huawei-Chips und chinesischen “Modellen, die die Privatsphäre der Benutzer verletzen und Sicherheitsrisiken wie das Risiko des Diebstahls von geistigem Eigentum schaffen”, vorschlägt. Dies wird auch weithin als Seitenhieb auf DeepSeek interpretiert.

Urheberrecht und der Treibstoff der KI: Navigieren im Bereich des geistigen Eigentums

Das heikle Thema des Urheberrechts, insbesondere im Zusammenhang mit dem Training von KI-Modellen, wird ebenfalls ausführlich behandelt. OpenAI kritisiert in einer klaren Zurückweisung des europäischen AI Act die Bestimmung, die Rechteinhabern die Möglichkeit gibt, sich gegen die Verwendung ihrer Werke für das KI-Training zu entscheiden. OpenAI fordert die US-Regierung auf, “weniger innovative Länder daran zu hindern, amerikanischen KI-Firmen ihre Rechtsordnungen aufzuzwingen und unser Fortschrittstempo zu verlangsamen”. Diese Haltung spiegelt die Überzeugung von OpenAI wider, dass ein uneingeschränkter Zugang zu Daten entscheidend ist, um die Wettbewerbsfähigkeit der USA im Bereich der KI zu erhalten.

Google hingegen fordert “ausgewogene Urheberrechtsgesetze” und auch Datenschutzgesetze, die automatisch eine Ausnahme für öffentlich zugängliche Informationen gewähren. Dies deutet auf einen differenzierteren Ansatz hin, der die Rechte der Urheber anerkennt, aber auch die Bedeutung von Daten für die KI-Entwicklung berücksichtigt. Google schlägt außerdem eine Überprüfung von “irrtümlich erteilten KI-Patenten” vor und weist darauf hin, dass immer mehr US-KI-Patente von chinesischen Unternehmen erworben werden.

Die Zukunft antreiben: Infrastruktur und Energiebedarf

Die schiere Rechenleistung, die zum Trainieren und Betreiben fortschrittlicher KI-Modelle erforderlich ist, erfordert einen erheblichen Ausbau der Infrastruktur und der Energieressourcen. OpenAI, Anthropic und Google plädieren alle für eine Straffung des Genehmigungsverfahrens für Übertragungsleitungen, um den Ausbau der Energieinfrastruktur zur Unterstützung neuer KI-Rechenzentren zu beschleunigen.

Anthropic nimmt eine besonders mutige Haltung ein und fordert bis 2027 zusätzliche 50 Gigawatt Energie in den USA, ausschließlich für die KI-Nutzung. Dies unterstreicht den immensen Energiebedarf der sich schnell entwickelnden KI-Landschaft und das Potenzial der KI, ein wichtiger Treiber des Energieverbrauchs zu werden.

Sicherheit, staatliche Akzeptanz und der KI-gestützte Staat

Die Eingaben befassen sich auch mit der Schnittstelle von KI, nationaler Sicherheit und staatlichen Operationen. OpenAI schlägt vor, die Cybersicherheitsgenehmigungen für Top-KI-Tools zu beschleunigen, damit Regierungsbehörden sie leichter testen und einsetzen können. Es schlägt auch öffentlich-private Partnerschaften vor, um KI-Modelle für die nationale Sicherheit zu entwickeln, die möglicherweise keinen tragfähigen kommerziellen Markt haben, wie z. B. Modelle, die für klassifizierte nukleare Aufgaben entwickelt wurden.

Anthropic schließt sich der Forderung nach schnelleren Beschaffungsverfahren an, um KI in staatliche Funktionen zu integrieren. Bemerkenswert ist, dass Anthropic auch die Bedeutung robuster Sicherheitsbewertungsrollen für das National Institute of Standards and Technology (NIST) und das U.S. AI Safety Institute hervorhebt.

Google argumentiert, dass nationale Sicherheitsbehörden kommerzielle Speicher- und Rechenressourcen für ihre KI-Bedürfnisse nutzen dürfen sollten. Es plädiert auch dafür, dass die Regierung ihre Datensätze für kommerzielles KI-Training freigibt und offene Datenstandards und APIs für verschiedene staatliche Cloud-Bereitstellungen vorschreibt, um “KI-gestützte Erkenntnisse” zu ermöglichen.

Die gesellschaftlichen Auswirkungen: Arbeitsmärkte und die KI-getriebene Transformation

Schließlich gehen die Eingaben auf die breiteren gesellschaftlichen Auswirkungen der KI ein, insbesondere auf ihre potenziellen Auswirkungen auf die Arbeitsmärkte. Anthropic fordert die Regierung auf, die Arbeitsmarkttrends genau zu beobachten und sich auf erhebliche Verwerfungen vorzubereiten. Google räumt ebenfalls ein, dass Veränderungen bevorstehen, und betont die Notwendigkeit einer umfassenderen Entwicklung von KI-Fähigkeiten. Google fordert außerdem mehr Mittel für die KI-Forschung und eine Politik, die sicherstellt, dass US-Forscher angemessenen Zugang zu Rechenleistung, Daten und Modellen haben.

Im Wesentlichen zeichnen die Eingaben zum ‘AI Action Plan’ das Bild einer Branche an einem entscheidenden Punkt. Obwohl sie in ihrem Bestreben, die KI-Technologie voranzutreiben, vereint sind, haben die führenden US-Unternehmen grundlegend unterschiedliche Ansichten darüber, wie die komplexen Herausforderungen der Regulierung, des internationalen Wettbewerbs und der gesellschaftlichen Auswirkungen zu bewältigen sind. Die kommenden Monate und Jahre werden zeigen, wie diese unterschiedlichen Visionen die Zukunft der KI prägen, nicht nur in den Vereinigten Staaten, sondern weltweit.