创新动力
AMD 推出的 Ryzen AI MAX+ 395 处理器标志着轻薄笔记本电脑性能的重大飞跃,特别是在人工智能应用领域。这款新型处理器性能显著超越竞争对手,为追求便携设备中卓越性能的用户提供了变革性的升级。
Ryzen AI MAX+ 395 基于尖端技术构建。它采用 ‘Zen 5’ CPU 核心、强大的 XDNA 2 NPU(拥有超过 50 AI TOPS 峰值算力)以及由 40 个 AMD RDNA 3.5 计算单元驱动的大型集成 GPU。这种高性能组件的组合在轻薄设计的限制下实现了前所未有的处理能力。Ryzen AI Max+ 395 的配置包括从 32 GB 到 128 GB 的统一内存。一个关键特性是 AMD 的可变显存 (Variable Graphics Memory) 技术,它可以将大量(高达 96GB)统一内存转换为 VRAM。
本地 AI:未来已来
Ryzen AI MAX+ 395 最引人注目的方面之一是它能够以卓越的效率处理要求苛刻的消费者 AI 工作负载。一个典型的例子是它在 LM Studio 中的性能,LM Studio 是一款用户友好的应用程序,允许任何人在本地运行最新的语言模型,而无需专门的技术知识。这为用户直接在笔记本电脑上与尖端的 AI 文本和视觉模型交互打开了一个充满可能性的世界。凭借 ‘Strix Halo’ 平台,AMD 巩固了其在该领域的领导地位,使用户能够以以前在这种紧凑设备中难以想象的方式体验 AI。
内存:打破瓶颈
轻薄型笔记本电脑中的许多竞争处理器都受到其板载内存容量的限制,通常最大为 32GB。虽然这可能足以运行一些大型语言模型 (LLM),但对于要求更高的 AI 应用程序来说,这会造成严重的瓶颈。然而,Ryzen AI MAX+ 395 打破了这一障碍。
基准测试卓越:真实性能
为了真正了解 Ryzen AI MAX+ 395 的性能优势,请考虑使用配备 64GB 统一内存的 ASUS ROG Flow Z13 进行的真实基准测试。为了确保与通常提供 32GB 笔记本电脑的竞争对手进行公平比较,LLM 大小被限制在适合 16GB 占用空间的模型。
结果令人震惊:
Token 吞吐量: 由 Ryzen AI MAX+ 395 驱动的 ASUS ROG Flow Z13 实现了高达 2.2 倍于配备 Intel Arc 140V 的笔记本电脑的 Token 吞吐量。这种性能提升在各种模型类型和参数大小上保持了显著的一致性。
首个 Token 时间: 此指标对于衡量 AI 模型的响应能力至关重要。Ryzen AI MAX+ 395 表现出显著优势,在 Llama 3.2 3b Instruct 等较小模型中比竞争对手快 4 倍。
随模型大小扩展: 随着 LLM 大小的增加,性能差距进一步扩大。对于 70 亿和 80 亿参数模型,例如 DeepSeek R1 Distill Qwen 7b 和 DeepSeek R1 Distill Llama 8b,Ryzen AI MAX+ 395 的速度提高了 9.1 倍。在处理 140 亿参数模型时,ASUS ROG Flow Z13 比搭载 Intel Core Ultra 258V 的笔记本电脑快了惊人的 12.2 倍——相差一个数量级以上。
这表明了一个明显的趋势:LLM 越大,Ryzen AI MAX+ 395 的性能优势就越明显。无论是与模型进行对话交流,还是为其分配涉及数千个 Token 的复杂摘要任务,AMD 驱动的机器都能提供明显更快、响应更灵敏的体验。优势与提示长度成正比,这意味着任务要求越高,收益就越大。
超越文本:拥抱多模态 AI
AI 的发展正在超越纯文本 LLM。结合了视觉适配器和视觉推理能力的高性能多模态模型的兴起正在改变格局。例如 IBM Granite Vision 和最近推出的 Google Gemma 3 系列模型,都为下一代 AMD AI PC 提供了先进的视觉功能。这些模型在 Ryzen AI MAX+ 395 处理器上运行得非常好。
在使用视觉模型时,’首个 Token 时间’ 指标有效地表示模型分析输入图像所需的时间。Ryzen AI MAX+ 395 在这方面提供了令人印象深刻的性能改进:
- 在 IBM Granite Vision 3.2 3b 中速度提升高达 7 倍。
- 在 Google Gemma 3 4b 中速度提升高达 4.6 倍。
- 在 Google Gemma 3 12b 中速度提升高达 6 倍。
此外,ASUS ROG Flow Z13 的 64GB 内存选项使其能够轻松运行 Google Gemma 3 27B Vision 模型,该模型被广泛认为是当前最先进的 (SOTA) 视觉模型。
实际应用:使用 AI 编码
另一个引人注目的例子是以 6 位精度运行 DeepSeek R1 Distill Qwen 32b 模型。此配置使用户能够在非常短的时间内(大约 5 分钟)编写一个经典游戏,展示了 AI 驱动开发的实际潜力。
优化 LLM 性能
为了最大限度地提高 LLM 在 AMD Ryzen AI 300 系列处理器上的性能,建议采取以下几个关键步骤:
驱动程序更新: 确保您使用的是最新的 AMD Software: Adrenalin Edition 驱动程序。
可变显存 (VGM): 配备这些处理器的 AMD 笔记本电脑具有 VGM。强烈建议为 LLM 工作负载启用 VGM,特别是将其设置为 ‘High’。这有助于提高 Token 吞吐量并允许更大的模型高效运行。可以通过 AMD Software: Adrenalin Edition 中的 ‘性能’ > ‘调整’ 选项卡访问 VGM 选项。
手动参数选择: 运行 LLM 时,选择 ‘手动选择参数’ 并将 GPU Offload 设置为 ‘MAX’。
量化: AMD 建议日常使用 Q4 K M 量化,编码任务使用 Q6 或 Q8 量化。
移动 AI 的新时代
AMD Ryzen AI MAX+ 395 处理器代表了轻薄笔记本电脑功能的范式转变。通过将尖端硬件与智能软件优化相结合,AMD 创建了一个平台,使用户能够以便携、强大且用户友好的方式体验最先进的 AI 模型。这款处理器不仅仅是更快的速度;它还关乎开启移动 AI 体验的新时代,用户可以无缝地与高级 AI 模型交互,以完成各种任务,从创意工作到复杂的问题解决。Ryzen AI MAX+ 395 真正重新定义了轻薄外形中的可能性,模糊了便携性和高性能计算之间的界限。能够在本地运行强大的 AI 模型(曾经仅限于桌面系统或云服务)为移动创新和生产力开辟了前所未有的机会。无论是游戏、内容创作还是日常生产力,这款芯片都是一个游戏规则改变者。