Meta hat kürzlich die neuesten Iterationen seines Llama-Modells für künstliche Intelligenz (KI) vorgestellt, was einen bedeutenden Fortschritt im anhaltenden Engagement des Unternehmens für KI-Innovation signalisiert. Zu den neuen Angeboten gehören Llama 4 Scout und Llama 4 Maverick, die Meta als “multimodale Modelle” bezeichnet hat und die ihre Fähigkeit hervorheben, verschiedene Medienformen über bloßen Text hinaus zu verarbeiten und mit ihnen zu interagieren.
Darüber hinaus kündigte Meta Llama 4 Behemoth an, das als eines der intelligentesten LLMs weltweit positioniert ist und als Lehrer für die neu veröffentlichten Modelle dienen soll.
Diese Ankündigung unterstreicht Metas substanzielle Investitionen in KI in den vorangegangenen zwei Jahren. CEO Mark Zuckerberg hat öffentlich seine Absicht bekundet, im Jahr 2025 bis zu 65 Milliarden US-Dollar zu investieren, um die KI-Fähigkeiten des Unternehmens weiter zu verbessern. Metas Ambitionen gehen über seine Social-Media-Domäne hinaus und erforschen potenzielle Premium-Abonnements für seinen KI-Assistenten Meta AI, um Aufgaben wie das Buchen von Reservierungen und die Erstellung von Videos zu erledigen.
OpenAIs Open-Source-Bestrebungen
Parallel zu diesen Entwicklungen erwägt OpenAI Berichten zufolge die Veröffentlichung einer Open-Source-Version seines LLM, eine Abkehr von seinen jüngsten Praktiken. Dieser Schritt würde den Benutzern die Freiheit geben, das Modell ohne Lizenzgebühren zu nutzen, zu modifizieren und zu verbreiten. OpenAI sucht Input von Entwicklern, Forschern und der breiten Öffentlichkeit, um den Nutzen des Modells zu optimieren.
Das Open-Source-Modell wird voraussichtlich innerhalb weniger Monate auf den Markt kommen. Das letzte Mal, dass OpenAI Open-Source-Prinzipien verfolgte, war 2019 mit dem GPT-2 LLM. Das neueste LLM ist GPT-4.5. OpenAI verlagerte sich auf proprietäre Modelle, nachdem es eine Investition in Höhe von einer Milliarde Dollar von Microsoft erhalten hatte und eine enge Allianz zur Weiterentwicklung der KI-Modellentwicklung eingegangen war. Microsoft hat seitdem über 13 Milliarden US-Dollar in OpenAI investiert, wobei OpenAIs Modelle exklusiv für die Kunden von Microsofts Azure-Cloud-Diensten verfügbar sind.
Metas Llama, Mistrals LLM und DeepSeek sind einige der Open-Source-Modelle, die in letzter Zeit an Popularität gewonnen haben. Zuckerberg erwähnte auf Threads, dass Llama eine Milliarde Mal heruntergeladen wurde. Llama wurde 2023 auf den Markt gebracht.
Metas “Behemoth”-KI-Modell verzögert sich
Meta verzögert jedoch Berichten zufolge die Veröffentlichung von “Behemoth”, die ursprünglich für einen Start im Sommer geplant war, wobei die frühestmögliche Veröffentlichung nun für den Herbst prognostiziert wird. Quellen deuten darauf hin, dass die Fortschritte des Modells nicht “bedeutend” genug waren, um eine Veröffentlichung im Juni zu rechtfertigen, und dass es sich um eine Verzögerung seit Metas Entwicklerkonferenz handelt.
Die Verzögerung wirft einen Schatten auf Metas Veröffentlichung der Llama-Flaggschiff-Familie von Large Language Models. Das Wall Street Journal sagt, sie seien für die Geschwindigkeit ihrer Veröffentlichung gelobt worden. Llama war maßgeblich daran beteiligt, Entwickler in kleineren Unternehmen, gemeinnützigen Organisationen und akademischen Einrichtungen zu unterstützen. Es ist eine Alternative zu den geschlossenen, proprietären Modellen, die von Unternehmen wie OpenAI, Google und Amazon angeboten werden.
Die Auswirkungen der Verzögerung von Behemoth auf größere Unternehmen sind weniger ausgeprägt, da diese oft auf cloudbasierte proprietäre Modelle angewiesen sind. Auch wenn kleinere Unternehmen die Open-Source-Llama-Modelle anpassen können, benötigen sie zusätzliche Deployment-Dienste, die Meta nicht anbietet. Der Einsatz von Llama durch Meta zielt darauf ab, die eigenen Social-Media-Tools zu verbessern, wodurch Zuckerberg die Kontrolle über die KI-Entwicklung behält.
Ein wesentlicher Faktor für die Verzögerung ist, ob das Modell substanzielle Verbesserungen aufweist, die eine öffentliche Einführung rechtfertigen.
Das Gebot für Innovation
In der schnelllebigen Welt der Technologiebranche müssen neue Versionen spürbare Fortschritte aufweisen, um ihre Einführung zu rechtfertigen. Auf der LlamaCon präsentierte Meta zwei kleinere Llama 4-Modelle, die jeweils über beeindruckende Fähigkeiten verfügen:
- Maverick verfügt über 400 Milliarden Gesamtparameter mit einem Kontextfenster von 1 Million Token (750.000 Wörter).
- Scout bietet 109 Milliarden Parameter und ein Kontextfenster von 10 Millionen Token (7,5 Millionen Wörter).
Behemoth sollte ursprünglich gleichzeitig veröffentlicht werden und 2 Billionen Parameter enthalten.
Laut dem Wall Street Journal wird Meta ungeduldig mit seinem Llama 4-Team wegen seiner fortgesetzten KI-Investitionen. Im Jahr 2024 hat das Unternehmen bis zu 72 Milliarden US-Dollar an Investitionsausgaben bereitgestellt, die hauptsächlich für die KI-Entwicklung bestimmt sind.
Wachsende Bedenken
Zuckerberg und andere leitende Angestellte haben noch keinen endgültigen Veröffentlichungstermin für Behemoth bekannt gegeben. Insider befürchten, dass seine Leistung möglicherweise nicht den Erwartungen entspricht, die durch Metas öffentliche Erklärungen geweckt wurden.
Quellen deuten auf eine zunehmende Unzufriedenheit der Führungsebene von Meta mit den Fortschritten des Teams hin, das die Llama 4-Modelle entwickelt. Dies hat zu Diskussionen über mögliche Führungswechsel innerhalb der KI-Produktgruppe geführt.
Meta hat Behemoth als ein hochleistungsfähiges System angepriesen, das Wettbewerber wie OpenAI, Google und Anthropic bei bestimmten Benchmarks übertrifft. Interne Herausforderungen haben seine Effizienz beeinträchtigt, wie von Personen berichtet wurde, die mit seiner Entwicklung vertraut sind.
Auch OpenAI hat Verzögerungen erlebt. Das nächste größere Modell, GPT-5, sollte ursprünglich Mitte 2024 veröffentlicht werden. Das Wall Street Journal berichtete im Dezember, dass die Entwicklung hinter dem Zeitplan zurückgefallen war.
Im Februar sagte OpenAI-CEO Sam Altman, dass das Interimsmodell GPT-4.5 sein würde, während GPT-5 noch Monate entfernt sei.
Mögliche Ursachen für den Stillstand
Mehrere Faktoren können zur Verlangsamung der KI-Modellentwicklung beitragen, darunter:
Abnehmende qualitativ hochwertige Daten
Large Language Models benötigen riesige Datenmengen für das Training, die die riesige Weite des Internets widerspiegeln. Sie können öffentlich zugängliche Datenquellen erschöpfen und gleichzeitig urheberrechtliche Haftungen eingehen.
Dies hat OpenAI, Google und Microsoft dazu veranlasst, sich für die Wahrung ihres Rechts auf das Training mit urheberrechtlich geschütztem Material einzusetzen.
OpenAI erwähnte, dass die Regierung die Freiheit der Amerikaner sichern kann, von KI zu lernen, und vermeiden kann, die KI-Führung an die VR China [Volksrepublik China] zu verlieren, indem sie die Fähigkeit amerikanischer KI-Modelle bewahrt, von urheberrechtlich geschütztem Material zu lernen.
Algorithmische Hürden
Der Glaube, dass eine Erhöhung der Modellgröße, die Verwendung von mehr Rechenleistung und das Training mit mehr Daten zu bemerkenswerten Fortschritten führen würden, hat sich als falsch erwiesen. Bloomberg sagt, dass es abnehmende Erträge gegeben hat, was einige zu der Aussage veranlasst, dass sich die Skalierungsgesetze verlangsamen.