小型AI模型:企业的新选择,告别通用LLM
Gartner 分析表明,企业将更多采用小型、专注的 AI 模型,而非通用 LLM,以优化资源、降低成本。数据成为关键差异,CIO 需确保数据就绪,企业需谨慎规划和执行。
Gartner 分析表明,企业将更多采用小型、专注的 AI 模型,而非通用 LLM,以优化资源、降低成本。数据成为关键差异,CIO 需确保数据就绪,企业需谨慎规划和执行。
C2S-Scale是一种开源大型语言模型,用于读取和编写单细胞生物数据,将基因表达转化为文本,从而实现更易访问和解释的单细胞数据分析。
了解如何在Mac上本地运行DeepSeek等大型语言模型 (LLM),提升隐私、性能和控制,开启AI新纪元。
人工智能发展迅速,跟上步伐充满挑战。Hugging Face作为一个协作中心,简化了发现、访问和理解最新AI模型(尤其是语言模型)的过程,成为研究者和开发者的重要工具。
探索如何通过微调(CPT、SFT、DPO、ORPO)和模型合并(特别是 SLERP)技术,使 Llama 和 Mistral 等大型语言模型适应材料科学等专业领域,并揭示模型合并带来的能力涌现现象。
研究人员发现,利用Google Gemini模型的微调功能,可以系统地生成高效的提示注入攻击,绕过手动试错,显著提高针对闭源模型的攻击成功率。
总部位于巴黎的Mistral AI发布了开源模型Mistral Small 3.1,直接挑战Google和OpenAI等巨头。该模型凭借Apache 2.0许可证、128k token上下文窗口和快速推理能力,在性能和可访问性上取得平衡,并通过fine-tuning提供定制化潜力,重塑AI竞争格局。
本文探讨微调大型语言模型的实践,对比其与检索增强生成 (RAG) 的优劣,并展示在代码库、文档处理、知识管理等领域的应用。重点关注 LoRA、量化等技术,以及硬件和部署考量。
Google 的 Gemma 3 1B 是一款轻量级语言模型 (SLM),仅 529MB,专为移动和 Web 应用设计。它支持离线运行,注重隐私保护,可通过微调优化性能,为开发者提供在设备上实现 AI 功能的强大工具。
Tradutor 是一款专为欧洲葡萄牙语设计的开源 AI 翻译模型,解决了机器翻译领域中该语言资源不足的问题。它基于庞大的并行语料库 PTradutor,性能优异,可媲美商业翻译系统。