Die Oracle Cloud Infrastructure (OCI) Generative AI Dienste begrüßen aufregende Neuzugänge: die Meta Llama 4 Modellfamilie, bestehend aus Scout und Maverick. Diese Modelle vereinen eine einzigartige Mixture-of-Experts (MoE) Architektur, was ihre Verarbeitungsleistung und Effizienz deutlich steigert. Sie sind speziell optimiert, um in Bereichen wie multimodales Verständnis, mehrsprachige Aufgaben, Code-Generierung und Tool-Aufrufe herausragende Leistungen zu erbringen und fortschrittliche Agentensysteme anzutreiben.
Aktuell sind diese Modelle in der Generally Available (GA) Version in folgenden Regionen verfügbar:
- On-Demand: ORD (Chicago)
- Dedicated AI Cluster: ORD (Chicago), GRU (Guarulhos), LHR (London), KIK (Kikuyu)
Die wichtigsten Highlights der Llama 4 Serie
Multimodale Fähigkeiten: Sprachbarrieren aufbrechen
Llama 4 Scout und Maverick sind nicht nur Sprachmodelle, sie sind wahre multimodale Meister. Sie können verschiedene Datentypen, einschließlich Text und Bilder, nativ verarbeiten und integrieren, um so reichhaltigere und umfassendere KI-Anwendungen zu ermöglichen. Stellen Sie sich ein KI-System vor, das gleichzeitig eine Textbeschreibung und ein dazugehöriges Bild verstehen kann, um den Kontext besser zu erfassen und fundiertere Entscheidungen zu treffen. Diese multimodale Fähigkeit eröffnet völlig neue Möglichkeiten für Aufgaben wie Bildunterschriftgenerierung, visuelles Frage-Antwort-Spiele und vieles mehr.
Mehrsprachige Unterstützung: Kommunikation ohne Grenzen
Ein weiteres Highlight der Llama 4 Serie ist ihre starke mehrsprachige Unterstützung. Die Modelle wurden auf Datensätzen mit 200 Sprachen trainiert und speziell für 12 Hauptsprachen (Arabisch, Englisch, Französisch, Deutsch, Hindi, Indonesisch, Italienisch, Portugiesisch, Spanisch, Tagalog, Thai und Vietnamesisch) feinabgestimmt. Das bedeutet, dass sie Texte in verschiedenen Sprachen verstehen und generieren können, was die Türen für globale Anwendungen öffnet. Es ist wichtig zu beachten, dass die Bildverständnisfunktion derzeit nur Englisch unterstützt.
Effiziente Entwicklung: Kleinere GPU-Auslastung
Llama 4 Scout wurde von Grund auf so konzipiert, dass er für Entwickler einfacher zugänglich ist. Es kann effizient auf kleineren GPUs ausgeführt werden, was es zur idealen Wahl für ressourcenbeschränkte Umgebungen macht. Das bedeutet, dass Entwickler, auch ohne High-End-Hardware, die leistungsstarken Funktionen von Llama 4 Scout nutzen können, um die Entwicklung und Bereitstellung von KI-Anwendungen zu beschleunigen.
Open-Source-Modelle: Stärkung der Community
Meta hat sich für einen offenen Ansatz entschieden und die Modelle unter der Llama 4 Community License veröffentlicht. Das bedeutet, dass Entwickler sie frei feinabstimmen und bereitstellen können, solange sie sich an bestimmte Lizenzbedingungen halten. Dieses offene Modell fördert Innovation und Zusammenarbeit in der KI-Community und ermöglicht es mehr Menschen, sich an der Entwicklung und Anwendung von KI-Technologien zu beteiligen.
Wissensstand
Es ist wichtig zu beachten, dass der Wissensstand der Llama 4 Modelle August 2024 ist. Dies bedeutet, dass sie möglicherweise keine aktuellen Informationen über Ereignisse oder Informationen liefern können, die nach diesem Datum stattgefunden haben.
Wichtiger Hinweis: Die Richtlinien für die zulässige Nutzung von Llama schränken die Verwendung innerhalb der Europäischen Union (EU) ein.
Llama 4 Scout: Der Leichtgewichts-Champion
Architektur: Raffiniertes Parameterdesign
Llama 4 Scout verwendet eine ausgeklügelte Architekturentwurf, bei der von insgesamt rund 109 Milliarden Parametern nur 17 Milliarden aktiviert werden. Dieses Design nutzt eine Mischung aus 16 Experten und erzielt so ein gutes Gleichgewicht zwischen Leistung und Effizienz. Durch die Aktivierung nur eines Teils der Parameter kann Scout den Rechenbedarf deutlich reduzieren und so in ressourcenbeschränkten Umgebungen betrieben werden.
Kontextfenster: Die Fähigkeit, lange Texte zu verarbeiten
Llama 4 Scout unterstützt eine Kontextlänge von bis zu 10 Millionen Token (mehrere GPUs erforderlich). Zum Zeitpunkt der allgemeinen Verfügbarkeit (GA) unterstützt der OCI Generative AI Dienst jedoch eine Kontextlänge von 192.000 Token. Selbst ein Kontextfenster von 192.000 ist ausreichend, um relativ lange Texte wie Buchkapitel oder detaillierte Berichte zu verarbeiten.
Bereitstellung: Kompakt und leistungsstark
Eines der Ziele von Llama 4 Scout war es, effizient auf kleineren GPUs zu laufen. Dies macht es zur idealen Wahl für eine Vielzahl von Bereitstellungsszenarien, einschließlich Edge-Geräte und Cloud-Umgebungen mit begrenzten Ressourcen.
Leistung: Übertrifft die Konkurrenz
Llama 4 Scout hat in mehreren Benchmarks hervorragende Leistungen erbracht und Modelle wie Google Gemma 3 und Mistral 3.1 übertroffen. Dies beweist die herausragende Leistungsfähigkeit von Scout und macht es zu einem leistungsstarken Werkzeug für eine Vielzahl von KI-Aufgaben.
Llama 4 Maverick: Das Schwergewicht
Architektur: Größerer Umfang, mehr Leistung
Im Vergleich zu Scout verwendet Llama 4 Maverick eine größere Architektur. Es aktiviert ebenfalls 17 Milliarden Parameter, jedoch in einem größeren Rahmen von rund 400 Milliarden Parametern und nutzt 128 Experten. Dieser größere Umfang verleiht Maverick mehr Leistung, sodass es in komplexeren KI-Aufgaben brillieren kann.
Kontextfenster: Superlanges Gedächtnis
Llama 4 Maverick unterstützt eine Kontextlänge von bis zu 1 Million Token. Zum Zeitpunkt der allgemeinen Verfügbarkeit (GA) unterstützt die OCI-Bereitstellung eine Kontextlänge von 512.000 Token. Ein so langes Kontextfenster ermöglicht es Maverick, äußerst komplexe Texte wie ganze Bücher oder Sammlungen mehrerer Dokumente zu verarbeiten.
Bereitstellung: Braucht mehr Platz
Aufgrund seines größeren Umfangs benötigt Llama 4 Maverick mehr Speicherplatz für die Bereitstellung als Scout. Zum Zeitpunkt der GA benötigt die Maverick-Bereitstellung auf OCI etwa doppelt so viel Speicherplatz wie Scout.
Leistung: Mit Top-Modellen vergleichbar
Bei der Code-Generierung und Inferenz kann Llama 4 Mavericks Leistung mit Top-Modellen wie OpenAI GPT-4o und DeepSeek-V3 mithalten. Dies beweist Mavericks Führungsposition im Bereich der KI.
Zusammenfassend lässt sich sagen, dass die Llama 4 Serie einen bedeutenden Fortschritt in der Entwicklung von KI-Modellen darstellt. Sie haben sich in puncto Leistung, Vielseitigkeit und Zugänglichkeit deutlich verbessert und bieten eine starke Unterstützung für eine Vielzahl von Anwendungen.
OCI Kunden können diese leistungsstarken Modelle jetzt einfach nutzen, ohne sich um komplexe Infrastrukturverwaltungsaufgaben kümmern zu müssen. Sie können über eine Chat-Oberfläche, API oder dedizierte Endpunkte auf diese Modelle zugreifen, was die Entwicklung und Bereitstellung von KI-Anwendungen vereinfacht.
Die Veröffentlichung der Llama 4 Modelle markiert eine neue Ära für OCI Generative AI Dienste. Indem OCI diese fortschrittlichen Modelle bereitstellt, hilft OCI Kund:innen, das volle Potenzial der KI auszuschöpfen und Innovationen in allen Branchen voranzutreiben.