Ryzen AI MAX+ 395: KI-Leistung neu definiert

Ein Kraftpaket der Innovation

Der Ryzen AI MAX+ 395 basiert auf einer Grundlage modernster Technologie. Er nutzt ‘Zen 5’ CPU-Kerne, eine leistungsstarke XDNA 2 NPU mit über 50 AI TOPS in der Spitze und eine massive integrierte GPU, die von 40 AMD RDNA 3.5 Compute Units angetrieben wird. Diese Kombination aus Hochleistungskomponenten ermöglicht eine beispiellose Rechenleistung innerhalb der Grenzen eines dünnen und leichten Designs. Der Ryzen AI Max+ 395 ist mit Konfigurationen von 32 GB bis zu 128 GB Unified Memory erhältlich. Ein Hauptmerkmal ist AMDs Variable Graphics Memory, das eine große Menge (bis zu 96 GB) dieses Unified Memory in VRAM umwandeln kann.

Lokale KI: Die Zukunft ist jetzt

Einer der überzeugendsten Aspekte des Ryzen AI MAX+ 395 ist seine Fähigkeit, anspruchsvolle KI-Workloads für Endverbraucher mit außergewöhnlicher Effizienz zu bewältigen. Ein Paradebeispiel ist seine Leistung in LM Studio, einer benutzerfreundlichen Anwendung, die es jedem ermöglicht, die neuesten Sprachmodelle lokal auszuführen, ohne dass spezielle technische Kenntnisse erforderlich sind. Dies eröffnet Benutzern eine Welt von Möglichkeiten, direkt auf ihren Laptops mit modernsten KI-Text- und -Bildmodellen zu interagieren. Mit der ‘Strix Halo’-Plattform festigt AMD seine Führungsposition in diesem Bereich und ermöglicht es Benutzern, KI auf eine Weise zu erleben, die in einem so kompakten Gerät bisher unvorstellbar war.

Speicher: Der Flaschenhals wird durchbrochen

Viele konkurrierende Prozessoren in der Kategorie der dünnen und leichten Laptops sind durch ihre On-Package-Speicherkapazität begrenzt, die oft maximal 32 GB beträgt. Dies mag zwar ausreichen, um einige große Sprachmodelle (LLMs) auszuführen, stellt aber einen erheblichen Engpass für anspruchsvollere KI-Anwendungen dar. Der Ryzen AI MAX+ 395 durchbricht jedoch diese Barriere.

Benchmarking-Exzellenz: Leistung in der realen Welt

Um den Leistungsvorteil des Ryzen AI MAX+ 395 wirklich zu verstehen, sollten reale Benchmarks mit einem ASUS ROG Flow Z13 mit 64 GB Unified Memory betrachtet werden. Um einen fairen Vergleich mit Konkurrenten zu gewährleisten, die typischerweise 32-GB-Laptops anbieten, wurde die LLM-Größe auf Modelle beschränkt, die in einen 16-GB-Footprint passen.

Die Ergebnisse sind beeindruckend:

  • Token-Durchsatz: Das ASUS ROG Flow Z13, angetrieben vom Ryzen AI MAX+ 395, erreichte einen bis zu 2,2-fachen Token-Durchsatz eines Laptops mit einem Intel Arc 140V. Dieser Leistungsschub blieb über verschiedene Modelltypen und Parametergrößen hinweg bemerkenswert konstant.

  • Zeit bis zum ersten Token: Diese Metrik ist entscheidend für die Messung der Reaktionsfähigkeit eines KI-Modells. Der Ryzen AI MAX+ 395 zeigte einen deutlichen Vorteil und war bei kleineren Modellen wie Llama 3.2 3b Instruct bis zu 4-mal schneller als die Konkurrenz.

  • Skalierung mit der Modellgröße: Der Leistungsunterschied vergrößert sich noch weiter, wenn die Größe des LLM zunimmt. Bei Modellen mit 7 Milliarden und 8 Milliarden Parametern, wie DeepSeek R1 Distill Qwen 7b und DeepSeek R1 Distill Llama 8b, war der Ryzen AI MAX+ 395 bis zu 9,1-mal schneller. Bei der Bearbeitung von Modellen mit 14 Milliarden Parametern war das ASUS ROG Flow Z13 erstaunliche 12,2-mal schneller als ein Laptop mit Intel Core Ultra 258V – ein Unterschied von mehr als einer Größenordnung.

Dies zeigt einen klaren Trend: Je größer das LLM, desto ausgeprägter ist der Leistungsvorteil des Ryzen AI MAX+ 395. Ob es sich um einen Gesprächsaustausch mit dem Modell handelt oder um komplexe Zusammenfassungsaufgaben mit Tausenden von Token, das AMD-basierte Gerät bietet ein deutlich schnelleres und reaktionsschnelleres Erlebnis. Der Vorteil ist direkt proportional zur Länge der Eingabeaufforderung, was bedeutet, dass der Nutzen umso größer ist, je anspruchsvoller die Aufgabe ist.

Über Text hinaus: Multimodale KI

Die Entwicklung der KI geht über reine Text-LLMs hinaus. Der Aufstieg hochleistungsfähiger multimodaler Modelle, die Vision-Adapter und visuelle Argumentationsfähigkeiten beinhalten, verändert die Landschaft. Beispiele hierfür sind IBM Granite Vision und die kürzlich eingeführte Google Gemma 3-Modellfamilie, die beide fortschrittliche Vision-Funktionen für die nächste Generation von AMD AI PCs bieten. Diese Modelle laufen außergewöhnlich gut auf dem Ryzen AI MAX+ 395 Prozessor.

Bei der Arbeit mit Vision-Modellen stellt die Metrik ‘Zeit bis zum ersten Token’ effektiv die Zeit dar, die das Modell benötigt, um das Eingabebild zu analysieren. Der Ryzen AI MAX+ 395 liefert in diesem Bereich beeindruckende Leistungsverbesserungen:

  • Bis zu 7-mal schneller in IBM Granite Vision 3.2 3b.
  • Bis zu 4,6-mal schneller in Google Gemma 3 4b.
  • Bis zu 6-mal schneller in Google Gemma 3 12b.

Darüber hinaus ermöglicht die 64-GB-Speicheroption des ASUS ROG Flow Z13 die mühelose Ausführung des Google Gemma 3 27B Vision-Modells, das weithin als das aktuelle State-of-the-Art (SOTA) Vision-Modell gilt.

Praktische Anwendungen: Programmieren mit KI

Ein weiteres überzeugendes Beispiel ist die Ausführung des DeepSeek R1 Distill Qwen 32b-Modells in 6-Bit-Präzision. Diese Konfiguration ermöglicht es Benutzern, ein klassisches Spiel in bemerkenswert kurzer Zeit, etwa 5 Minuten, zu programmieren, was das praktische Potenzial der KI-gestützten Entwicklung demonstriert.

Optimierung für LLM-Leistung

Um die Leistung von LLMs auf AMD Ryzen AI 300-Prozessoren zu maximieren, werden mehrere wichtige Schritte empfohlen:

  1. Treiber-Updates: Stellen Sie sicher, dass Sie den neuesten AMD Software: Adrenalin Edition-Treiber verwenden.

  2. Variable Graphics Memory (VGM): AMD-Laptops, die mit diesen Prozessoren ausgestattet sind, verfügen über VGM. Die Aktivierung von VGM, insbesondere die Einstellung auf ‘High’, wird für LLM-Workloads dringend empfohlen. Dies trägt dazu bei, den Token-Durchsatz zu verbessern und ermöglicht die effiziente Ausführung größerer Modelle. Auf die VGM-Optionen kann über die Registerkarte ‘Leistung > Tuning’ in AMD Software: Adrenalin Edition zugegriffen werden.

  3. Manuelle Parameterauswahl: Wählen Sie beim Ausführen von LLMs ‘Parameter manuell auswählen’ und setzen Sie die Einstellung ‘GPU Offload’ auf ‘MAX’.

  4. Quantisierung: AMD empfiehlt die Verwendung der Q4 K M-Quantisierung für den täglichen Gebrauch und Q6 oder Q8 für Programmieraufgaben.

Eine neue Ära der mobilen KI

Der AMD Ryzen AI MAX+ 395 Prozessor stellt einen Paradigmenwechsel in den Fähigkeiten von dünnen und leichten Laptops dar. Durch die Kombination von modernster Hardware mit intelligenten Softwareoptimierungen hat AMD eine Plattform geschaffen, die es Benutzern ermöglicht, modernste KI-Modelle auf tragbare, leistungsstarke und benutzerfreundliche Weise zu erleben. Bei diesem Prozessor geht es nicht nur um höhere Geschwindigkeiten, sondern auch darum, eine neue Ära mobiler KI-Erlebnisse zu ermöglichen, in der Benutzer nahtlos mit fortschrittlichen KI-Modellen für eine Vielzahl von Aufgaben interagieren können, von kreativen Unternehmungen bis hin zur Lösung komplexer Probleme. Der Ryzen AI MAX+ 395 definiert wirklich neu, was in einem dünnen und leichten Formfaktor möglich ist, und verwischt die Grenzen zwischen Portabilität und Hochleistungsrechnen. Die Fähigkeit, leistungsstarke KI-Modelle lokal auszuführen, die einst auf Desktop-Systeme oder Cloud-Dienste beschränkt waren, eröffnet beispiellose Möglichkeiten für Innovation und Produktivität unterwegs. Ob es sich um Spiele, die Erstellung von Inhalten oder die tägliche Produktivität handelt, dieser Chip ist ein Game-Changer.