KI-Ausgaben: Nachfrage überwältigt Effizienzgewinne

Das anfängliche Beben: DeepSeek und die Effizienz-Illusion

Das Aufkommen der chinesischen KI DeepSeek Anfang dieses Jahres löste Schockwellen in der Tech-Investmentlandschaft aus. Ihr scheinbar bahnbrechender Ansatz, der leistungsstarke künstliche Intelligenz bei deutlich geringerem Rechenaufwand versprach, löste sofort Spekulationen aus. Schnell bildete sich ein Narrativ: Vielleicht stand die unaufhaltsame, kostspielige Expansion der KI-Infrastruktur, gekennzeichnet durch massive Käufe spezialisierter Chips und Systeme, kurz vor einer Verlangsamung. Der Markt reagierte und spiegelte den Glauben wider, dass eine neue Ära kosteneffektiver KI den erwarteten Ausgabenboom drastisch eindämmen könnte.

Einblicke von einem kürzlichen hochrangigen Treffen von Branchenexperten zeichnen jedoch ein deutlich anderes Bild. Eine von Bloomberg Intelligence in New York einberufene Konferenz zu generativer KI legte nahe, dass die ursprüngliche Interpretation, die sich ausschließlich auf potenzielle Kosteneinsparungen konzentrierte, die größere Geschichte übersah. Weit davon entfernt, eine Verlangsamung der Ausgaben zu signalisieren, unterstrich die Veranstaltung einen nahezu unstillbaren Hunger nach größerer KI-Kapazität. Der Konsens drehte sich nicht darum, zurückzuschneiden; es ging darum herauszufinden, wie man einen exponentiell wachsenden Appetit auf intelligente Systeme stillen kann, selbst während man sich verzweifelt wünschte, die Speisekarte wäre weniger kostspielig.

Stimmen aus dem Feld: Ein unstillbarer Durst nach Kapazität

Die Diskussionen während der eintägigen Veranstaltung, die Entwickler, Strategen und Investoren zusammenbrachte, kreisten immer wieder um das Thema der steigenden Nachfrage, die monumentale Investitionen antreibt. Mandeep Singh, ein leitender Technologieanalyst bei Bloomberg Intelligence und einer der Organisatoren der Veranstaltung, fasste die vorherrschende Stimmung prägnant zusammen. Mit Blick auf die zahlreichen Panels und Expertendiskussionen stellte er einen universellen Refrain fest: Niemand der Beteiligten hatte das Gefühl, über ausreichende KI-Kapazität zu verfügen. Das überwältigende Gefühl war, mehr zu brauchen, nicht zu viel zu haben.

Entscheidend fügte Singh hinzu, dass das Schreckgespenst einer ‘Infrastrukturblase’, eine häufige Befürchtung in schnell wachsenden Technologiesektoren, in der Konversation auffallend fehlte. Der Fokus blieb klar auf der grundlegenden Herausforderung, vor der die gesamte Branche steht. Anurag Rana, Singhs Kollege und leitender Analyst für IT-Dienstleistungen und Software bei Bloomberg Intelligence, formulierte es als die überragende Frage: ‘Wo stehen wir in diesem [KI-Infrastrukturaufbau-] Zyklus?’

Obwohl er einräumte, dass die genaue Bestimmung der Phase dieses massiven Ausbaus schwer fassbar bleibt (‘Niemand weiß es’ sicher, gab Rana zu), hat das DeepSeek-Phänomen die Perspektiven unbestreitbar verschoben. Es injizierte eine starke Dosis Hoffnung, dass signifikante KI-Workloads potenziell wirtschaftlicher bewältigt werden könnten. ‘DeepSeek hat viele Leute aufgerüttelt’, bemerkte Rana. Die Implikation war klar: Wenn anspruchsvolle KI-Modelle tatsächlich effizient auf weniger anspruchsvoller Hardware laufen könnten, könnten gigantische Projekte, wie die milliardenschweren Initiativen, die Gerüchten zufolge von Konsortien unter Beteiligung großer Tech-Player geplant sind, möglicherweise neu bewertet oder anders skaliert werden.

Der Traum, der laut Rana in der gesamten Branche widerhallt, ist, dass die Betriebskosten für KI, insbesondere für die Inference (die Phase, in der trainierte Modelle Vorhersagen oder Inhalte generieren), dem dramatischen Abwärtstrend folgen, der bei der Cloud-Speicherung in den letzten zehn Jahren zu beobachten war. Er erinnerte daran, wie sich die Wirtschaftlichkeit der Speicherung riesiger Datenmengen auf Plattformen wie Amazon Web Services (AWS) über etwa acht Jahre dramatisch verbesserte. ‘Dieser Abfall der Kostenkurve… die Wirtschaftlichkeit war gut’, erklärte er. ‘Und das ist es, was jeder hofft, dass auf der Inference-Seite… wenn die Kurve auf dieses Niveau fällt, oh mein Gott, die Akzeptanzrate bei KI… spektakulär sein wird.’ Singh stimmte zu und bemerkte, dass die Ankunft von DeepSeek die ‘Denkweise aller über das Erreichen von Effizienz’ grundlegend verändert hat.

Dieses Sehnen nach Effizienz war während der gesamten Konferenzsitzungen spürbar. Während zahlreiche Panels die praktischen Aspekte der Überführung von Unternehmens-KI-Projekten von der Konzeptionsphase in die Live-Produktion untersuchten, betonte eine parallele Diskussion ständig die kritische Notwendigkeit, die Kosten für die Bereitstellung und den Betrieb dieser KI-Modelle zu senken. Das Ziel ist klar: Zugang demokratisieren, indem KI für ein breiteres Spektrum von Anwendungen und Nutzern wirtschaftlich rentabel gemacht wird. Shawn Edwards, Bloombergs eigener Chief Technologist, meinte, DeepSeek sei nicht unbedingt eine völlige Überraschung gewesen, sondern vielmehr eine eindrucksvolle Illustration eines universellen Wunsches. ‘Was es mich denken ließ, ist, dass es großartig wäre, wenn man einen Zauberstab schwingen könnte und diese Modelle unglaublich effizient laufen würden’, bemerkte er und erweiterte den Wunsch auf das gesamte Spektrum der KI-Modelle, nicht nur auf einen spezifischen Durchbruch.

Das Proliferationsprinzip: Treibstoff für die Rechennachfrage

Einer der Hauptgründe, warum Experten trotz des Strebens nach Effizienz weiterhin erhebliche Investitionen in die KI-Infrastruktur erwarten, liegt in der schieren Proliferation von KI-Modellen. Ein wiederkehrendes Thema während der New Yorker Konferenz war die entschiedene Abkehr von der Vorstellung eines einzigen, monolithischen KI-Modells, das alle Aufgaben bewältigen kann.

  • Eine Familienangelegenheit: Wie Bloombergs Edwards es ausdrückte: ‘Wir verwenden eine Familie von Modellen. Es gibt nicht das beste Modell.’ Dies spiegelt ein wachsendes Verständnis dafür wider, dass verschiedene KI-Architekturen bei unterschiedlichen Aufgaben – Sprachgenerierung, Datenanalyse, Bilderkennung, Code-Vervollständigung usw. – herausragen.
  • Unternehmensanpassung: Die Diskussionsteilnehmer waren sich weitgehend einig, dass zwar große, allgemeine ‘Foundation’- oder ‘Frontier’-Modelle weiterhin von großen KI-Laboren entwickelt und verfeinert werden, die eigentliche Aktion in Unternehmen jedoch den Einsatz von potenziell Hunderten oder sogar Tausenden von spezialisierten KI-Modellen beinhaltet.
  • Fine-Tuning und proprietäre Daten: Viele dieser Unternehmensmodelle werden durch einen Prozess namens Fine-Tuning aus Basismodellen angepasst. Dies beinhaltet das erneute Trainieren eines vortrainierten neuronalen Netzes mit den spezifischen, oft proprietären Daten eines Unternehmens. Dies ermöglicht es der KI, einzigartige Geschäftskontexte, Terminologie und Kundeninteraktionen zu verstehen und weitaus relevantere und wertvollere Ergebnisse zu liefern, als es ein generisches Modell könnte.
  • Demokratisierung der Entwicklung: Jed Dougherty, der die Datenwissenschaftsplattform Dataiku vertrat, betonte die Notwendigkeit von ‘Optionalität unter den Modellen’ für Unternehmens-KI-Agenten. Er unterstrich die Bedeutung, Unternehmen Kontrolle, Erstellungsfähigkeiten und Auditierbarkeit über ihre KI-Tools zu geben. ‘Wir wollen die Werkzeuge zum Bauen dieser Dinge in die Hände der Menschen legen’, behauptete Dougherty. ‘Wir wollen nicht, dass zehn Doktoranden alle Agenten bauen.’ Dieser Drang nach breiterer Zugänglichkeit in der Entwicklung selbst impliziert einen Bedarf an mehr zugrunde liegender Infrastruktur, um diese verteilten Erstellungsbemühungen zu unterstützen.
  • Markenspezifische KI: Die Kreativbranche bietet ein Paradebeispiel. Hannah Elsakr, Leiterin neuer Geschäftsinitiativen bei Adobe, erläuterte ihre Strategie, die auf maßgeschneiderte Modelle als wichtiges Unterscheidungsmerkmal setzt. ‘Wir können benutzerdefinierte Modellerweiterungen für Ihre Marke trainieren, die bei einer neuen Werbekampagne helfen können’, illustrierte sie und zeigte, wie KI angepasst werden kann, um spezifische Markenästhetiken und Botschaften beizubehalten.

Über die Diversifizierung der Modelle hinaus ist der zunehmende Einsatz von KI-Agenten in Unternehmensabläufen ein weiterer signifikanter Treiber für die Verarbeitungsnachfrage. Diese Agenten werden nicht nur als passive Werkzeuge, sondern als aktive Teilnehmer gesehen, die in der Lage sind, mehrstufige Aufgaben auszuführen.

Ray Smith, Leiter der Copilot Studio Agenten- und Automatisierungsbemühungen bei Microsoft, prognostizierte eine Zukunft, in der Benutzer über eine einheitliche Schnittstelle wie Copilot mit potenziell Hunderten von spezialisierten Agenten interagieren. ‘Man wird nicht einen ganzen Prozess in einen Agenten stopfen, man wird ihn in Teile zerlegen’, erklärte er. Diese Agenten, so schlug er vor, seien im Wesentlichen ‘Apps in der neuen Welt’ der Programmierung. Die Vision ist eine, in der Benutzer einfach ihr Ziel angeben – ‘ihm sagen, was wir erreichen wollen’ – und der Agent die notwendigen Schritte orchestriert. ‘Agentenbasierte Apps sind nur eine neue Art des Workflows’, erklärte Smith und betonte, dass die Realisierung dieser Vision weniger eine Frage der technologischen Möglichkeit sei (‘es ist alles technologisch möglich’) als vielmehr des ‘Tempos, mit dem wir es ausbauen’.

Dieser Vorstoß, KI-Agenten tiefer in alltägliche Organisationsprozesse einzubetten, verstärkt den Druck auf Kostensenkung und effiziente Bereitstellung weiter. James McNiven, Leiter des Produktmanagements beim Mikroprozessorgiganten ARM Holdings, formulierte die Herausforderung im Hinblick auf die Zugänglichkeit. ‘Wie stellen wir den Zugang auf immer mehr Geräten bereit?’, überlegte er. Angesichts von Modellen, die bei spezifischen Aufgaben nahezu ‘Doktoranden-Niveau’-Fähigkeiten erreichen, zog er eine Parallele zu den transformativen Auswirkungen der Einführung mobiler Zahlungssysteme in Entwicklungsländern vor Jahren. Die Kernfrage bleibt: ‘Wie bringen wir diese [KI-Fähigkeit] zu den Menschen, die diese Fähigkeit nutzen können?’ Anspruchsvolle KI-Agenten als Assistenten für eine breite Masse von Arbeitskräften leicht verfügbar zu machen, erfordert nicht nur clevere Software, sondern auch effiziente Hardware und unweigerlich mehr Investitionen in die zugrunde liegende Infrastruktur, selbst wenn sich die Effizienz pro Berechnung verbessert.

Skalierungshürden: Silizium, Strom und die Cloud-Giganten

Selbst die am weitesten verbreiteten, generischen Foundation-Modelle vermehren sich in atemberaubendem Tempo und belasten die bestehende Infrastruktur immens. Dave Brown, der für Computing und Networking bei Amazon Web Services (AWS) verantwortlich ist, enthüllte, dass allein ihre Plattform Kunden Zugang zu rund 1.800 verschiedenen KI-Modellen bietet. Er unterstrich den intensiven Fokus von AWS darauf, ‘viel zu tun, um die Kosten’ für den Betrieb dieser leistungsstarken Werkzeuge zu senken.

Eine Schlüsselstrategie für Cloud-Anbieter wie AWS beinhaltet die Entwicklung ihres eigenen Custom Silicon. Brown hob die zunehmende Nutzung von AWS-entwickelten Chips hervor, wie ihre Trainium-Prozessoren, die für das KI-Training optimiert sind, und erklärte: ‘AWS verwendet mehr unserer eigenen Prozessoren als die Prozessoren anderer Unternehmen.’ Dieser Schritt hin zu spezialisierter, hauseigener Hardware zielt darauf ab, die Kontrolle über Leistung und Kosten zu erlangen und die Abhängigkeit von allgemeinen Chip-Lieferanten wie Nvidia, AMD und Intel zu reduzieren. Trotz dieser Bemühungen räumte Brown offen die grundlegende Realität ein: ‘Kunden würden mehr tun, wenn die Kosten niedriger wären.’ Die Nachfragegrenze wird derzeit eher durch Budgetbeschränkungen als durch einen Mangel an potenziellen Anwendungen definiert.

Der Umfang der von führenden KI-Entwicklern benötigten Ressourcen ist immens. Brown erwähnte die tägliche Zusammenarbeit von AWS mit Anthropic, den Schöpfern der hochentwickelten Claude-Sprachmodellfamilie. Michael Gerstenhaber, Leiter der Anwendungsprogrammierschnittstellen bei Anthropic, der neben Brown sprach, wies auf die Rechenintensität moderner KI hin, insbesondere von Modellen, die für komplexes Schlussfolgern oder ‘Denken’ konzipiert sind. Diese Modelle generieren oft detaillierte Schritt-für-Schritt-Erklärungen für ihre Antworten und verbrauchen dabei erhebliche Rechenleistung. ‘Denkende Modelle verursachen einen hohen Kapazitätsverbrauch’, erklärte Gerstenhaber.

Während Anthropic aktiv mit AWS an Optimierungstechniken wie ‘Prompt Caching’ (Speichern und Wiederverwenden von Berechnungen aus früheren Interaktionen zur Ressourceneinsparung) arbeitet, bleibt der grundlegende Hardwarebedarf enorm. Gerstenhaber erklärte unverblümt, dass Anthropic ‘Hunderttausende von Accelerators’ – spezialisierte KI-Chips – benötigt, die ‘über viele Rechenzentren verteilt’ sind, nur um seine aktuelle Suite von Modellen zu betreiben. Dies vermittelt einen konkreten Eindruck vom schieren Umfang der Rechenressourcen, die nur einen einzigen großen KI-Player unterstützen.

Zusätzlich zur Herausforderung, riesige Flotten von Silizium zu beschaffen und zu verwalten, kommt der spiralförmig ansteigende Energieverbrauch im Zusammenhang mit KI hinzu. Brown hob dies als ein kritisches und rapide eskalierendes Anliegen hervor. Aktuelle Rechenzentren, die intensive KI-Workloads unterstützen, verbrauchen bereits Strom im Bereich von Hunderten von Megawatt. Prognosen deuten darauf hin, dass zukünftige Anforderungen unweigerlich in den Gigawatt-Bereich klettern werden – die Leistung großer Kraftwerke. ‘Der Stromverbrauch’, warnte Brown in Bezug auf KI, ‘ist groß, und der Fußabdruck ist in vielen Rechenzentren groß.’ Dieser eskalierende Energiebedarf stellt nicht nur immense Betriebskosten dar, sondern auch erhebliche ökologische und logistische Herausforderungen für die Standortwahl und Stromversorgung der nächsten Generation von KI-Infrastruktur.

Der wirtschaftliche Joker: Ein Schatten über den Wachstumsplänen

Trotz der optimistischen Aussichten, die durch technologische Fortschritte und aufkeimende Anwendungsfälle angetrieben werden, schwebt eine bedeutende Variable über allen Prognosen für KI-Investitionen: das breitere wirtschaftliche Klima. Als die Konferenz von Bloomberg Intelligence zu Ende ging, beobachteten die Teilnehmer bereits Marktunruhen, die von neu angekündigten globalen Zollpaketen ausgingen, die als umfangreicher als erwartet wahrgenommen wurden.

Dies dient als eindringliche Erinnerung daran, dass ehrgeizige technologische Roadmaps schnell durch makroökonomischen Gegenwind gestört werden können. Bloombergs Rana warnte davor, dass KI-Ausgaben zwar anfangs etwas isoliert sein könnten, traditionelle Bereiche der IT-Investitionen von Unternehmen, wie Server und Speicher, die nicht mit KI zusammenhängen, jedoch die ersten Opfer einer wirtschaftlichen Kontraktion sein könnten. ‘Das andere große Ding, auf das wir uns konzentrieren, sind die Nicht-KI-Technologieausgaben’, bemerkte er und äußerte Bedenken hinsichtlich der potenziellen Auswirkungen auf große Tech-Dienstleister im Vorfeld der Berichtssaison, noch bevor die KI-Budgets speziell berücksichtigt werden.

Es gibt jedoch eine vorherrschende Theorie, dass sich KI als einzigartig widerstandsfähig erweisen könnte. Rana schlug vor, dass Chief Financial Officers (CFOs) großer Unternehmen, die aufgrund wirtschaftlicher Unsicherheit oder sogar einer Rezession mit Budgetbeschränkungen konfrontiert sind, sich dafür entscheiden könnten, KI-Initiativen zu priorisieren. Sie könnten potenziell Mittel aus weniger kritischen Bereichen umschichten, um strategische KI-Investitionen zu schützen, die als entscheidend für die zukünftige Wettbewerbsfähigkeit angesehen werden.

Doch diese optimistische Sichtweise ist alles andere als garantiert. Der ultimative Test wird laut Rana sein, ob große Unternehmen ihre aggressiven Investitionsziele, insbesondere für den Ausbau von KI-Rechenzentren, angesichts zunehmender wirtschaftlicher Unsicherheit beibehalten. Die kritische Frage bleibt: ‘Werden sie sagen: ‘Wissen Sie was? Es ist zu unsicher.’’ Die Antwort wird darüber entscheiden, ob die scheinbar unaufhaltsame Dynamik hinter den Ausgaben für KI-Infrastruktur ihren unaufhaltsamen Aufstieg fortsetzt oder eine unerwartete Pause erfährt, die von den globalen wirtschaftlichen Realitäten diktiert wird.