Innovativste KI-Firmen 2025

1. Nvidia

Das Streben nach immer ausgefeilteren KI-Systemen treibt weiterhin erhebliche Investitionen von Entwicklern großer Sprachmodelle voran. Ein Unternehmen profitiert jedoch bereits jetzt von dieser KI-Revolution: Nvidia. Nachdem Nvidia mit seinen dominanten Grafikprozessoren (GPUs) das KI-Rennen entfacht hat, ist das Unternehmen mit seinem bahnbrechenden Blackwell-Prozessor und seiner Plattform perfekt positioniert, um das Streben nach menschenähnlicher Intelligenz zu unterstützen.

Blackwell übertrifft seinen Vorgänger, den H100, und bietet bis zu 2,5-mal mehr Leistung für allgemeine Modelltrainingsaufgaben, während er gleichzeitig deutlich weniger Energie verbraucht. Große Rechenzentrumsbetreiber und KI-Labore, darunter Branchengrößen wie Google, Meta, Microsoft, OpenAI, Tesla und xAI, haben sich verpflichtet, Hunderttausende von Blackwell-GPUs zu kaufen.

Während neuere Modelle von chinesischen Unternehmen wie DeepSeek und Alibaba beeindruckende Fähigkeiten mit älteren, weniger leistungsstarken Nvidia-GPUs gezeigt haben, ruht sich Nvidia nicht auf seinen Lorbeeren aus. Das Unternehmen entwickelt aktiv Plattformen für verschiedene Anwendungen, die von der Arzneimittelforschung (Clara for Biopharma) und autonomen Fahrzeugen (Drive AGX) bis hin zur Videoproduktion (Holoscan) und digitalen Zwillingen (Omniverse) reichen. Indem Nvidia den KI-Fortschritt in einem breiten Spektrum realer Szenarien fördert, positioniert sich das Unternehmen strategisch für nachhaltiges Wachstum, selbst wenn zukünftige Modelle weniger auf reine Rechenleistung angewiesen sind.

2. OpenAI

Seit 2019 hat OpenAI seine Modelle konsequent durch die Erweiterung von Trainingsdaten und Rechenressourcen verbessert, eine Strategie, die in der gesamten Branche weitgehend übernommen wurde. Als jedoch die abnehmenden Erträge dieses Skalierungsansatzes deutlich wurden, erkannte OpenAI die Notwendigkeit eines neuen Weges, um AGI zu erreichen – Modelle, die die menschliche Intelligenz in den meisten Aufgaben übertreffen.

Die Lösung von OpenAI kam in Form des o1-Modells. Anstatt sich ausschließlich auf die Skalierung der Ressourcen während des Vortrainings zu konzentrieren, entwickelte OpenAI o1 so, dass es während der Inferenz, der Phase, in der das Modell aktiv eingesetzt wird und auf Benutzeranfragen reagiert, mehr Zeit und Rechenleistung zuweist. Während dieses Prozesses sammelt und speichert o1 Kontextinformationen, sowohl vom Benutzer als auch von relevanten Datenquellen. Es verwendet eine Trial-and-Error-Methode, um den optimalen Weg zu einer Antwort zu bestimmen. Das Ergebnis ist die Generierung von Antworten auf PhD-Niveau auf komplexe Fragen, was o1 an die Spitze der Leistungsbenchmark-Rankings katapultierte.

OpenAI bietet ‘experimentelle’ und ‘Mini’-Versionen von o1 für ChatGPT Plus-Abonnenten an. Darüber hinaus bietet ein Premium-Service namens ChatGPT Pro unbegrenzten Zugriff auf das vollständige o1-Modell für 200 US-Dollar pro Monat. Im Dezember 2024 stellte OpenAI den Nachfolger von o1, o3, vor und gewährte im Februar 2025 zahlenden Benutzern Zugriff auf o3-mini, eine kleinere, schnellere Variante, die für Wissenschaft, Mathematik und Programmierung optimiert ist. Die tiefgreifendste Auswirkung der neuen Reasoning-Modelle von OpenAI ist die Bestätigung der Skalierung der Rechenleistung zur Inferenzzeit als vielversprechender Weg, um weitere Durchbrüche in der Intelligenz auf dem Weg zu AGI zu erzielen.

3. Google DeepMind

Die Grundlagenforschung, die den Weg für die heutigen Chatbots ebnete, entstand Ende der 2010er Jahre bei Google. Google hatte bereits lange vor dem Aufkommen von ChatGPT einen Chatbot entwickelt, der auf einem großen Sprachmodell basierte. Bedenken hinsichtlich Sicherheit, Datenschutz und rechtlichen Implikationen führten jedoch Berichten zufolge zu einem vorsichtigen Ansatz, der die öffentliche Freigabe verzögerte. Diese Zurückhaltung führte dazu, dass Google im anschließenden KI-Rennen, das durch den Start von ChatGPT ausgelöst wurde, zunächst ins Hintertreffen geriet.

Die Veröffentlichung von Google DeepMinds Gemini 2.0 im Jahr 2024 signalisierte Googles definitive Rückkehr. Gemini 2.0 ist das erste KI-Modell für den Massenmarkt, das von Natur aus multimodal ist und in der Lage ist, Bilder, Videos, Audio und Computercode mit der gleichen Flüssigkeit wie Text zu verarbeiten und zu generieren. Diese Fähigkeit ermöglicht es dem Modell, Videoclips oder sogar Live-Videofeeds von einer Handykamera mit bemerkenswerter Geschwindigkeit und Genauigkeit zu analysieren und zu interpretieren.

Gemini zeichnet sich auch durch seine Fähigkeit aus, andere Google-Dienste wie Maps und Search zu steuern. Diese Integration zeigt Googles strategischen Vorteil, indem es seine KI-Forschung mit seinen etablierten Informations- und Produktivitätstools kombiniert. Gemini gehört zu den ersten KI-Modellen, die einen autonomen Betrieb und die Fähigkeit demonstrieren, komplexe Probleme im Namen des Benutzers zu lösen. Das Gemini 2.0 Flash Thinking Experimental-Modell bietet Benutzern sogar Einblicke in den Denkprozess, der verwendet wurde, um zu einer Antwort zu gelangen. Darüber hinaus stellte Google im Dezember Project Mariner vor, eine auf Gemini basierende agentische KI-Funktion, die Aufgaben wie den Online-Lebensmitteleinkauf autonom ausführen soll.

4. Anthropic

Die primären Anwendungen der generativen KI konzentrierten sich bisher auf das Schreiben und Zusammenfassen von Texten und die Generierung von Bildern. Der nächste evolutionäre Schritt besteht darin, große Sprachmodelle mit Reasoning-Fähigkeiten und der Fähigkeit auszustatten, Werkzeuge zu nutzen. Das ‘Computer Use’-Modell von Anthropic gab einen frühen Einblick in diese Zukunft.

Beginnend mit Claude 3.5 Sonnet im Jahr 2024 kann das Modell von Anthropic Bildschirmaktivitäten, einschließlich Internetinhalte, wahrnehmen. Es kann einen Cursor manipulieren, auf Schaltflächen klicken und Text eingeben. Ein Demonstrationsvideo zeigte Claudes Fähigkeit, ein Formular mit Informationen auszufüllen, die auf Websites verfügbar sind, die in Browser-Tabs geöffnet sind. Es kann Aufgaben wie das Erstellen einer persönlichen Website oder das Organisieren der Logistik eines Tagesausflugs erledigen. Die autonomen Aktionen der KI, wie das Öffnen neuer Tabs, das Durchführen von Suchen und das Ausfüllen von Datenfeldern, sind wirklich bemerkenswert.

Während das Modell derzeit langsamer arbeitet und möglicherweise nicht immer die richtige Antwort liefert, werden schnelle Verbesserungen erwartet, da Anthropic seine Grenzen identifiziert und behebt. Googles bereits erwähntes Project Mariner folgte Anthropics Beispiel im Dezember, und OpenAI stellte im Januar 2025 sein eigenes Computernutzungsmodell, Operator, vor. Im Februar 2025 stellte Anthropic seine nächste große Iteration vor, Claude 3.7 Sonnet, ein größeres Modell, das in der Lage ist, automatisch den Reasoning-Modus für anspruchsvolle Abfragen zu aktivieren.

5. Microsoft

Die Entwicklung der Phi-Modelle von Microsoft ergab sich aus einer grundlegenden Frage, die die Forscher des Unternehmens im Jahr 2023 stellten: ‘Was ist die kleinste Modellgröße, die Anzeichen von aufkommender Intelligenz zeigen kann?’ Diese Frage markierte einen entscheidenden Moment in der Entwicklung von ‘kleinen Sprachmodellen’, Modellen, die für eine optimale Leistung in Szenarien mit begrenztem Speicher, begrenzter Rechenleistung oder Konnektivität entwickelt wurden, in denen schnelle Reaktionszeiten entscheidend sind.

Im Laufe des Jahres 2024 veröffentlichte Microsoft zwei Generationen kleiner Modelle, die Reasoning- und Logikfähigkeiten zeigten, die während des Trainings nicht explizit integriert wurden. Im April stellte das Unternehmen eine Reihe von Phi-3-Modellen vor, die in Sprach-, Reasoning-, Programmier- und Mathematik-Benchmarks hervorragende Leistungen erbrachten, wahrscheinlich aufgrund ihres Trainings mit synthetischen Daten, die von deutlich größeren und leistungsfähigeren LLMs generiert wurden. Varianten des Open-Source-Phi-3 wurden im Jahr 2024 über 4,5 Millionen Mal auf Hugging Face heruntergeladen.

Ende 2024 brachte Microsoft seine Phi-4-Sprachmodelle auf den Markt, die die Phi-3-Modelle bei Reasoning-fokussierten Aufgaben übertrafen und sogar OpenAIs GPT-4o bei den GPQA- (wissenschaftliche Fragen) und MATH-Benchmarks übertrafen. Microsoft veröffentlichte das Modell unter einer Open-Source- und Open-Weights-Lizenz, die es Entwicklern ermöglicht, Edge-Modelle oder Anwendungen für Telefone oder Laptops zu erstellen. Innerhalb von weniger als einem Monat verzeichnete Phi-4 375.000 Downloads auf Hugging Face.

6. Amazon

Amazon AWS hat kürzlich Trainium2 vorgestellt, eine neue Version seines Trainium-Prozessors für KI, die die Dominanz von Nvidia-GPUs in bestimmten Umgebungen herausfordern könnte. Trainium2 wurde entwickelt, um die massive Rechenleistung zu liefern, die für das Training der größten generativen KI-Modelle und für Inferenzoperationen nach der Modellbereitstellung erforderlich ist. AWS behauptet, dass Trainium für vergleichbare Aufgaben 30 % bis 40 % kostengünstiger ist als GPUs.

Trainium2 behebt die Leistungs- und Softwareintegrationsmängel, die beim ersten Trainium-Chip beobachtet wurden, und positioniert Amazon so, dass es möglicherweise die Lücke zu Nvidia schließen kann. (Es ist erwähnenswert, dass AWS selbst stark auf Nvidia für GPUs angewiesen ist.) Nvidia zu verdrängen, ist aufgrund der Kundenbindung an Nvidias CUDA-Softwareschicht, die Forschern eine granulare Kontrolle darüber gibt, wie ihre Modelle die Ressourcen des Chips nutzen, eine gewaltige Herausforderung. Amazon bietet seine eigene Kernel-Kontrollsoftwareschicht, Neuron Kernel Interface (NKI), an, die Forschern ähnlich wie CUDA eine feingranulare Kontrolle über Chip-Kernel-Interaktionen ermöglicht.

Es ist wichtig zu beachten, dass Trainium2 noch nicht im großen Maßstab getestet wurde. AWS baut derzeit einen Server-Cluster mit 400.000 Trainium2-Chips für Anthropic, der wertvolle Einblicke in die Optimierung der Leistung seiner KI-Chips in groß angelegten Bereitstellungen liefern könnte.

7. Arm

Der britische Halbleiterdesigner Arm ist seit langem ein wichtiger Anbieter der Architektur, die in Chips verwendet wird, die kleine Geräte wie Telefone, Sensoren und IoT-Hardware antreiben. Diese Rolle gewinnt in der aufkommenden Ära, in der Edge-Device-Chips KI-Modelle ausführen werden, an Bedeutung. Rechenzentren werden in dieser Entwicklung ebenfalls eine entscheidende Rolle spielen, da sie oft einen Teil oder die gesamte anspruchsvollste KI-Verarbeitung übernehmen und die Ergebnisse an Edge-Geräte liefern.

Da Rechenzentren weltweit immer zahlreicher werden, wird ihr Stromverbrauch zu einem immer dringlicheren Problem. Dieser Faktor trägt zur Betonung der Effizienz in Arms neuester Neoverse-CPU-Architektur bei. Sie bietet laut Unternehmensangaben eine Leistungssteigerung von 50 % gegenüber früheren Generationen und eine um 20 % bessere Leistung pro Watt im Vergleich zu Prozessoren, die konkurrierende x86-Architekturen verwenden.

Arm berichtet, dass Amazon, Microsoft, Google und Oracle alle Arm Neoverse sowohl für allgemeine Rechenaufgaben als auch für CPU-basierte KI-Inferenz und -Training übernommen haben. Beispielsweise gab Microsoft im Jahr 2024 bekannt, dass sein erster kundenspezifischer Chip für die Cloud, der Cobalt 100-Prozessor, auf Arm Neoverse basiert. Einige der größten KI-Rechenzentren werden auf NVIDIAs Grace Hopper Superchip setzen, der eine Hopper-GPU und eine Grace-CPU auf Basis von Neoverse kombiniert. Arm plant, in diesem Jahr seinen eigenen CPU auf den Markt zu bringen, wobei Meta einer seiner ersten Kunden sein wird.

8. Gretel

Im vergangenen Jahr haben KI-Unternehmen abnehmende Erträge aus dem Training ihrer Modelle mit immer größeren Datenmengen aus dem Web erzielt. Infolgedessen haben sie ihren Fokus von der reinen Menge der Trainingsdaten auf deren Qualität verlagert. Dies hat zu verstärkten Investitionen in nicht-öffentliche und spezialisierte Inhalte geführt, die von Verlagspartnern lizenziert wurden. KI-Forscher müssen auch Lücken oder blinde Flecken in ihren von Menschen generierten oder von Menschen annotierten Trainingsdaten beheben. Zu diesem Zweck haben sie sich zunehmend synthetischen Trainingsdaten zugewandt, die von spezialisierten KI-Modellen generiert werden.

Gretel erlangte im Jahr 2024 Bekanntheit, indem es sich auf die Erstellung und Kuratierung synthetischer Trainingsdaten spezialisierte. Das Unternehmen gab die allgemeine Verfügbarkeit seines Flaggschiffprodukts Gretel Navigator bekannt, das es Entwicklern ermöglicht, synthetische Trainingsdatensätze für die Feinabstimmung und das Testen mithilfe von natürlicher Sprache oder SQL-Abfragen zu generieren, zu erweitern, zu bearbeiten und zu kuratieren. Die Plattform hat bereits eine Community von über 150.000 Entwicklern angezogen, die mehr als 350 Milliarden Trainingsdaten synthetisiert haben.

Andere Branchenakteure sind auf Gretels Fähigkeiten aufmerksam geworden. Gretel ging eine Partnerschaft mit Google ein, um seine synthetischen Trainingsdaten für Google Cloud-Kunden leicht zugänglich zu machen. Eine ähnliche Partnerschaft mit Databricks wurde im Juni angekündigt und gewährt Unternehmenskunden von Databricks Zugriff auf synthetische Trainingsdaten für ihre Modelle, die in der Databricks-Cloud ausgeführt werden.

9. Mistral AI

Mistral AI, Frankreichs Herausforderer im Bereich der generativen KI, hat konsequent Druck auf OpenAI, Anthropic und Google an der Spitze der Entwicklung von Frontier-KI-Modellen ausgeübt. Mistral AI veröffentlichte im Jahr 2024 eine Reihe neuer Modelle mit bedeutenden technologischen Fortschritten und zeigte ein schnelles Geschäftswachstum sowohl durch Direktmarketing seiner APIs als auch durch strategische Partnerschaften.

Anfang des Jahres stellte das Unternehmen ein Paar Open-Source-Modelle namens Mixtral vor, die sich durch ihre innovative Verwendung der ‘Mixture of Experts’-Architektur auszeichnen, bei der nur eine spezialisierte Teilmenge der Modellparameter zur Bearbeitung einer Abfrage herangezogen wird, was die Effizienz erhöht. Im Juli 2024 kündigte Mistral Mistral Large 2 an, das mit 123 Milliarden Parametern erhebliche Verbesserungen bei der Codegenerierung, Mathematik, Reasoning und Funktionsaufrufen aufwies. Das französische Unternehmen veröffentlichte auch Ministral 3B und Ministral 8B, kleinere Modelle, die für die Ausführung auf Laptops oder Telefonen entwickelt wurden und in der Lage sind, etwa 50 Textseiten Kontextinformationen zu speichern, die vom Benutzer bereitgestellt werden.

Mistral hat in Europa Erfolg, indem es sich als kostengünstige und flexible Alternative zu US-amerikanischen KI-Unternehmen wie OpenAI positioniert. Es setzte auch seine Expansion in den US-amerikanischen Unternehmensmarkt im Jahr 2024 fort. Im Juni sicherte sich das Unternehmen eine Finanzierungsrunde in Höhe von 640 Millionen US-Dollar, angeführt von der Risikokapitalgesellschaft General Catalyst, wodurch die Bewertung von Mistral auf etwa 6,2 Milliarden US-Dollar stieg.

10. Fireworks AI

Fireworks bietet eine benutzerdefinierte Laufzeitumgebung, die die oft komplexe Ingenieursarbeit im Zusammenhang mit dem Aufbau einer Infrastruktur für KI-Bereitstellungen rationalisiert. Mit der Fireworks-Plattform können Unternehmen über 100 KI-Modelle integrieren und diese dann für ihre spezifischen Anwendungsfälle anpassen und optimieren.

Das Unternehmen stellte im Jahr 2024 neue Produkte vor, die es positionieren werden, um von wichtigen Trends in der KI-Branche zu profitieren. Erstens haben sich Entwickler zunehmend auf die Reaktionsfähigkeit von KI-gestützten Modellen und Anwendungen konzentriert. Fireworks stellte FireAttention V2 vor, eine Optimierungs- und Quantisierungssoftware, die die Modellleistung beschleunigt und die Netzwerklatenz reduziert. Zweitens entwickeln sich KI-Systeme zunehmend zu ‘Pipelines’, die verschiedene Modelle und Tools über APIs aufrufen. Die neue FireFunction V2-Software fungiert als Orchestrator für alle Komponenten innerhalb dieser zunehmend komplexen Systeme, insbesondere wenn Unternehmen mehr autonome KI-Anwendungen einsetzen.

Fireworks meldet ein Umsatzwachstum von 600 % im Jahr 2024. Zu seinen Kunden zählen namhafte Unternehmen wie Verizon, DoorDash, Uber, Quora und Upwork.

11. Snorkel AI

Unternehmen haben erkannt, dass die Effektivität ihrer KI-Systeme direkt mit der Qualität ihrer Daten zusammenhängt. Snorkel AI hat ein florierendes Geschäft aufgebaut, indem es Unternehmen bei der Aufbereitung ihrer proprietären Daten für die Verwendung in KI-Modellen unterstützt. Die Snorkel Flow AI-Datenentwicklungsplattform des Unternehmens bietet Unternehmen eine kosteneffiziente Methode, um ihre proprietären Daten zu kennzeichnen und zu kuratieren, sodass sie zur Anpassung und Bewertung von KI-Modellen für ihre spezifischen Geschäftsanforderungen verwendet werden können.

Im Jahr 2024 erweiterte Snorkel seine Unterstützung auf Bilder, sodass Unternehmen multimodale KI-Modelle und Bildgeneratoren mit ihren eigenen proprietären Bildern trainieren können. Es integrierte auch Retrieval Augmented Generation (RAG) in seine Plattform, sodass Kunden nur die relevantesten Segmente von Informationen aus langen Dokumenten, wie z. B. proprietären Wissensbasis-Inhalten, für die Verwendung im KI-Training abrufen können. Snorkel Custom, ein neuer, intensiverer Service-Level, beinhaltet die direkte Zusammenarbeit von Snorkels Machine-Learning-Experten mit Kunden an Projekten.

Snorkel gibt an, dass sich seine jährlichen Buchungen im Jahresvergleich im Jahr 2024 verdoppelt haben, mit einem dreistelligen Wachstum der jährlichen Buchungen in jedem der letzten drei Jahre. Sechs der größten Banken nutzen laut Unternehmensangaben jetzt Snorkel Flow, zusammen mit Marken wie Chubb, Wayfair und Experian.

12. CalypsoAI

Da KI eine immer wichtigere Rolle in kritischen Entscheidungsprozessen spielt, suchen Unternehmen nach mehr Transparenz in Bezug auf die Funktionsweise von Modellen. Dieser Bedarf ist besonders ausgeprägt in regulierten Branchen, die kontinuierlich auf Voreingenommenheit und andere unbeabsichtigte Ergebnisse überwachen müssen. CalypsoAI gehörte zu den ersten, die diese aufkommende Anforderung erkannten, und reagierte schnell mit erweiterten Erklärbarkeitsfunktionen in seiner KI-Infrastrukturplattform.

Was Calypso auszeichnet, ist die Breite seiner Observability-Technologie. Im Jahr 2024 brachte das Unternehmen seine AI Security Platform auf den Markt, die Unternehmensdaten schützt, indem sie alle aktiven generativen KI-Modelle, die ein Unternehmen möglicherweise verwendet, sichert, prüft und überwacht, unabhängig vom Modellanbieter oder davon, ob das Modell intern oder extern gehostet wird. Calypso führte auch neue Visualisierungstools ein, mit denen Benutzer die Logik hinter KI-Entscheidungen in Echtzeit beobachten können.

Der Markt reagiert positiv auf Calypsos Schwerpunkt auf KI-Observability. Das Unternehmen meldet eine Verzehnfachung der Einnahmen im Jahr 2024 und erwartet eine weitere Verfünffachung im Jahr 2025.

13. Galileo

Während KI-Systeme im Vergleich zu vor einem Jahr weniger Fälle von faktischen Halluzinationen und Voreingenommenheiten aufweisen, sind sie weiterhin anfällig für diese Probleme. Dies stellt ein erhebliches Problem für jedes Unternehmen dar, das KI einsetzt, insbesondere für Unternehmen in regulierten Sektoren wie dem Gesundheitswesen und dem Bankwesen. KI-Entwicklungsteams verwenden die KI-Plattform von Galileo, um die Genauigkeit ihrer Modelle und Anwendungen zu messen, zu optimieren und zu überwachen.

Anfang 2024, nach zweijähriger Forschung, veröffentlichte Galileo Luna, eine Suite von Bewertungsmodellen, die darauf trainiert sind, schädliche Ausgaben zu identifizieren. Diese Modelle ermöglichen es der Plattform von Galileo, die Arbeit eines LLM schnell zu überprüfen und zu bewerten, während es die Token zusammensetzt, die seine Antwort bilden. Dieser Prozess dauert etwa 200 Millisekunden und bietet genügend Zeit, um die Ausgabe der KI zu kennzeichnen und zu verhindern, dass sie einem Benutzer angezeigt wird. Während ein Standard-LLM diese Aufgabe ausführen könnte, wäre es erheblich teurer. Die speziell entwickelten Modelle von Galileo bieten überlegene Genauigkeit, Kosteneffizienz und vor allem Geschwindigkeit.

Galileo meldet eine Vervierfachung seines Kundenstamms im Jahr 2024, mit Kunden wie Twilio, Reddit, Chegg, Comcast und JPMorgan Chase. Das Startup sicherte sich außerdem eine Finanzierungsrunde in Höhe von 68 Millionen US-Dollar von Investoren wie dem CEO von Hugging Face, Clément Delangue.

14. Runway

Eine der größten Hoffnungen – und Ängste – im Zusammenhang mit KI ist ihr Potenzial, Videos von ausreichender Qualität zu generieren, um die Kunst und Wirtschaft des Filmemachens zu revolutionieren. Die Technologie machte im Jahr 2024 erhebliche Fortschritte in Richtung dieser Zukunft, wobei Runway, ein in New York ansässiges Videogenerierungs-Startup, eine führende Rolle spielte. Die Veröffentlichung von Runways Gen-3 Alpha-Modell im Juni 2024 fand in der KI-Community breite Anerkennung für die deutlich verbesserte Glaubwürdigkeit des generierten Videos.

Runway implementierte auch wichtige Verbesserungen an seinen Tools zur Steuerung der Ästhetik von KI-Videos. Das Modell wurde sowohl mit Bildern als auch mit Videos trainiert und kann Videos basierend auf Text- oder Bildeingaben generieren. Das Unternehmen veröffentlichte anschließend Gen-3 Alpha Turbo, eine kostengünstigere und schnellere Version von Gen-3.

Hollywood hat die Fortschritte der generativen KI genau beobachtet, und Runway berichtet, dass es mit der Produktion kundenspezifischer Versionen seiner Modelle für Akteure der Unterhaltungsindustrie begonnen hat. Im September 2024 ging es eine formelle Partnerschaft mit Lionsgate Studios ein. Runway entwickelte ein kundenspezifisches Modell für die Produktionsfirma und trainierte es mit dem Filmkatalog von Lionsgate. Runway gibt an, dass das Modell Filmemachern, Regisseuren und anderen Kreativen von Lionsgate helfen soll, ihre Arbeit zu ‘erweitern’ und gleichzeitig ‘Zeit, Geld und Ressourcen zu sparen’. Runway glaubt, dass seine Vereinbarung mit Lionsgate als Blaupause für ähnliche Kooperationen mit anderen Produktionsfirmen dienen könnte.

15. Cerebras Systems

KI-Systeme, insbesondere große Frontier-Modelle, benötigen immense Rechenleistung, um im großen Maßstab zu funktionieren. Dies erfordert die Verbindung von Tausenden oder Millionen von Chips, um die Arbeitslast zu verteilen. Die Netzwerkverbindungen zwischen Chips können jedoch zu Leistungsengpässen führen. Die Technologie von Cerebras Systems wurde entwickelt, um die Geschwindigkeits- und Effizienzvorteile der Integration einer großen Menge an Rechenleistung auf einem einzigen, außergewöhnlich großen Chip zu nutzen.

Der neueste WSE-3-Chip (Wafer Scale Engine der dritten Generation) des Unternehmens misst beispielsweise 814 Quadratmillimeter, die Größe eines Esstellers, und ist 56-mal größer als Nvidias marktführende H100-Chips. Der Chip enthält erstaunliche 4 Billionen Transistoren und bietet 44 Gigabit Speicher. Diese Chips können zu Supercomputern zusammengefasst werden, wie z. B. Condor Galaxy, einer ‘Konstellation’ miteinander verbundener Supercomputer, die Cerebras in Zusammenarbeit mit seinem größten Kunden, G42, einem in den VAE ansässigen KI- und Cloud-Computing-Unternehmen, entwickelt.

Bisher hat Cerebras eine Nische in großen Forschungsorganisationen gefunden, darunter die Mayo Clinic, Sandia National Laboratories, Lawrence Livermore National Laboratory und Los Alamos National Laboratory. Das Unternehmen beantragte im September 2024 einen Börsengang. Der Prospekt zeigt, dass sich der Umsatz des Unternehmens im Jahr 2023 auf 78,7 Millionen US-Dollar mehr als verdreifacht hat und in der ersten Hälfte des Jahres 2024 auf 136,4 Millionen US-Dollar gestiegen ist.