OpenAI 的 GPT-4.1:对齐上的倒退?
OpenAI发布GPT-4.1,声称其擅长遵守指令。然而,独立评估表明,它可能不如前代可靠。缺乏技术报告引发了担忧,独立调查揭示了潜在的对齐问题,促使人们呼吁谨慎对待AI的发展。
OpenAI发布GPT-4.1,声称其擅长遵守指令。然而,独立评估表明,它可能不如前代可靠。缺乏技术报告引发了担忧,独立调查揭示了潜在的对齐问题,促使人们呼吁谨慎对待AI的发展。
OpenAI发布的GPT-4.1在指令遵循方面表现出色,但独立测试表明其一致性不如前代产品,引发研究人员的担忧。
Gartner 分析表明,企业将更多采用小型、专注的 AI 模型,而非通用 LLM,以优化资源、降低成本。数据成为关键差异,CIO 需确保数据就绪,企业需谨慎规划和执行。
C2S-Scale是一种开源大型语言模型,用于读取和编写单细胞生物数据,将基因表达转化为文本,从而实现更易访问和解释的单细胞数据分析。
了解如何在Mac上本地运行DeepSeek等大型语言模型 (LLM),提升隐私、性能和控制,开启AI新纪元。
人工智能发展迅速,跟上步伐充满挑战。Hugging Face作为一个协作中心,简化了发现、访问和理解最新AI模型(尤其是语言模型)的过程,成为研究者和开发者的重要工具。
探索如何通过微调(CPT、SFT、DPO、ORPO)和模型合并(特别是 SLERP)技术,使 Llama 和 Mistral 等大型语言模型适应材料科学等专业领域,并揭示模型合并带来的能力涌现现象。
研究人员发现,利用Google Gemini模型的微调功能,可以系统地生成高效的提示注入攻击,绕过手动试错,显著提高针对闭源模型的攻击成功率。
总部位于巴黎的Mistral AI发布了开源模型Mistral Small 3.1,直接挑战Google和OpenAI等巨头。该模型凭借Apache 2.0许可证、128k token上下文窗口和快速推理能力,在性能和可访问性上取得平衡,并通过fine-tuning提供定制化潜力,重塑AI竞争格局。
本文探讨微调大型语言模型的实践,对比其与检索增强生成 (RAG) 的优劣,并展示在代码库、文档处理、知识管理等领域的应用。重点关注 LoRA、量化等技术,以及硬件和部署考量。