在 Mac 上本地运行 DeepSeek 及其他 LLM

本地运行 LLM 的优势

增强隐私和安全性

本地运行 LLM 最主要的优势在于提升了隐私和安全性。由于无需依赖外部服务器,您可以完全掌控自己的数据,确保敏感信息保留在安全的环境中。这在处理机密或专有数据时尤其重要。

卓越的性能和成本效益

本地运行 LLM 消除了与云端处理相关的延迟,从而提供性能优势。这意味着更快的响应速度和更流畅的用户体验。此外,它避免了与云端 LLM 服务相关的长期 API 费用,从而随着时间的推移节省大量成本。

定制化的 AI 体验

通过在本地运行 LLM,您可以利用专有数据对其进行训练,从而调整其响应,使其与您的特定需求完全一致。这种定制解锁了 AI 实用性的新水平,使您能够创建高度专业化的 AI 解决方案,以满足您的独特需求。对于希望利用 DeepSeek 或其他 LLM 执行与工作相关的任务的专业人士来说,这种方法可以显著提高生产力和效率。

赋能开发者

对于开发者来说,本地运行 LLM 提供了一个实验和探索的沙盒环境。通过在本地运行 LLM,开发者可以更深入地了解它们的功能,并找到将它们集成到工作流程中的创新方法。凭借必要的技术专长,开发者甚至可以利用这些 AI 模型构建代理工具,从而实现任务自动化并简化流程。

在 Mac 上本地运行 LLM 的最低要求

与普遍的看法相反,本地运行 LLM 并不一定需要配备大量 RAM 的高端 Mac。在任何配备 Apple 芯片且至少具有 16GB 系统内存的 Mac 上本地运行 LLM 是可行的。虽然 8GB 的内存在技术上是足够的,但系统性能会明显受到影响。

务必了解,LLM 提供各种配置,每种配置都具有不同数量的参数。LLM 拥有的参数越多,它就越复杂和智能化。但是,这也意味着 AI 模型将需要更多的存储空间和系统资源才能有效地运行。例如,Meta 的 Llama 提供了多种变体,其中包括一个具有 700 亿个参数的变体。要运行此模型,您需要一台具有 40GB 以上的可用存储空间和 48GB 以上的系统内存的 Mac。

为了获得最佳性能,请考虑运行参数为 70 亿或 80 亿的 LLM(如 DeepSeek)。这应该可以在具有 16GB 系统内存的 Mac 上流畅运行。如果您可以使用性能更强大的 Mac,则可以尝试更适合您特定需求的模型。

选择 LLM 时,务必考虑您的预期用例。有些 LLM 擅长推理任务,而另一些 LLM 则更适合编码查询。有些 LLM 针对 STEM 相关的对话进行了优化,而另一些 LLM 则专为多轮对话和长上下文连贯性而设计。

LM Studio:一个用户友好的本地 LLM 执行解决方案

对于那些寻求一种在 Mac 上本地运行 DeepSeek 和 Llama 等 LLM 的简便方法的人来说,LM Studio 是一个绝佳的起点。该软件可免费用于个人用途。

以下是 LM Studio 入门的分步指南:

  1. **下载并安装 LM Studio:**从其官方网站下载 LM Studio,并将其安装在您的 Mac 上。安装完成后,启动该应用程序。

  2. 模型选择:

    • 如果您的主要目标是在本地运行 DeepSeek,则可以完成入门过程并下载该模型。
    • 或者,您可以跳过入门过程,直接搜索要下载和安装的 LLM。为此,请单击 LM Studio 顶部的搜索栏,它会提示您“选择要加载的模型”。
    • 您还可以通过单击 LM Studio 右下角的设置齿轮来浏览可用 LLM 的列表。在出现的窗口中,选择左侧的“模型搜索”选项卡。您也可以使用键盘快捷键 Command + Shift + M 直接访问此窗口。
  3. 模型下载:

    • 在“模型搜索”窗口中,您将看到可供下载的 AI 模型的完整列表。
    • 右侧的窗口提供有关每个模型的详细信息,包括简短描述和其令牌限制。
    • 选择要使用的 LLM,例如 DeepSeek、Meta 的 Llama、Qwen 或 phi-4。
    • 单击右下角的“下载”按钮开始下载过程。
    • 请注意,虽然您可以下载多个 LLM,但 LM Studio 一次只能加载和运行一个模型。

使用您下载的 LLM

LLM 下载完成后,关闭 LM Studio 的 Mission Control 窗口。然后,单击顶部的搜索栏并加载最近下载的 LLM。

加载 AI 模型时,LM Studio 允许您配置各种设置,包括其上下文长度和 CPU 线程池大小。如果您不确定这些设置,则可以将其保留为默认值。

您现在可以通过提出问题或将其用于各种任务来开始与 LLM 交互。

LM Studio 使您可以与 LLM 保持多个单独的聊天。要启动新的对话,请单击顶部工具栏中的“+”图标。如果您同时将 LLM 用于多个项目,此功能特别有用。您还可以创建文件夹来组织您的聊天。

管理系统资源

如果您担心 AI 模型消耗过多的系统资源,则可以调整 LM Studio 的设置以减轻此影响。

使用键盘快捷键 Command + , 访问 LM Studio 的设置。然后,确保将“模型加载保护措施”设置设置为“严格”。此设置将阻止 LLM 使您的 Mac 过载。

您可以在底部工具栏中监视 LM Studio 和已下载 LLM 的资源使用情况。如果 CPU 或内存使用率过高,请考虑切换到参数计数较低的 AI 模型以减少资源消耗。

性能考虑因素

本地运行的 LLM 的性能可能会因多种因素而异,包括 Mac 的硬件规格、LLM 的大小以及正在执行的任务的复杂性。

虽然即使是较旧的 Apple 芯片 Mac 也可以流畅地运行 LLM,但具有更多系统内存和强大处理器的新型 Mac 通常会提供更好的性能。

存储管理

为防止 Mac 的存储空间快速填满,必须在完成 LLM 的试验后删除所有不需要的 LLM。LLM 可能非常大,因此下载多个模型会快速消耗大量存储空间。

超越 LM Studio:探索其他选项

虽然 LM Studio 提供了一种方便且用户友好的本地运行 LLM 的方式,但它并不是唯一的选择。其他工具和框架(如 llama.cpp)提供更高级的功能和自定义选项。但是,这些选项通常需要更多的技术专长才能设置和使用。

本地 AI 的未来

本地运行 LLM 的能力有望彻底改变我们与 AI 交互的方式。随着 LLM 变得更加高效和易于访问,我们可以期望看到大量本地 AI 应用程序涌现,这些应用程序为用户提供更大的隐私、控制和自定义。

无论您是注重隐私的个人、寻求试验 AI 的开发者,还是希望提高生产力的专业人士,在 Mac 上本地运行 LLM 都会开启无限可能。