Sarvam AI推出尖端LLM,比肩Meta和Google的强大模型
位于班加罗尔的创新初创公司Sarvam AI,凭借其入选印度政府著名的IndiaAI Mission,已成为AI领域的领跑者。该公司最近推出了其旗舰Large Language Model (LLM),命名为Sarvam-M,标志着印度背景下的AI能力向前迈出了重要一步。
这款拥有240亿参数的多语言LLM,充分证明了Sarvam AI致力于推动AI技术边界的决心。Sarvam-M建立在法国AI巨头Mistral AI开发的开源权重AI模型Mistral Small的基础上,并融入了一种混合推理方法,使其能够在各种基于文本的任务中表现出色。
Sarvam-M的设计经过精心打造,旨在满足各种用例的需求,使其成为各行各业的宝贵工具。从驱动能够进行自然和上下文感知对话的复杂会话代理,到提供弥合语言鸿沟的无缝翻译服务,Sarvam-M有望彻底改变通信和信息访问方式。
此外,该模型的潜力还延伸到教育领域,它可以作为一种动态的教育工具,提供个性化的学习体验,并促进对复杂科目的更深入理解。这种适应性使Sarvam-M成为个人和组织寻求利用AI变革力量的强大资产。
性能
Sarvam-M在几个关键领域表现出卓越的实力,为印度语言、数学推理和编程任务树立了新的性能基准。这些成就突显了该模型满足印度市场特定需求和挑战的能力。
在印度语言、数学和编程方面表现出色
该AI模型在印度语言基准测试中比其基础模型平均提高了20%,突显了其对这些语言的先进理解和流畅性。这种增强确保了在各种语言环境中的更准确和细致的沟通。
在数学问题解决领域,Sarvam-M在与数学相关的任务中表现出显着提升,达到21.6%,使其能够以更高的准确性和效率解决复杂的方程式和逻辑推理挑战。这一特性使Sarvam-M成为各种科学和工程应用的宝贵工具。
此外,该模型在编码基准测试中表现出17.6%的显着提升,证明了其生成清晰、高效且无错误代码的能力。这种能力使Sarvam-M成为软件开发人员和程序员寻求自动化和简化其工作流程的宝贵资源。
在印度语言和数学的交叉领域,Sarvam-M在罗马化的印度语言GSM-8K基准测试中实现了令人印象深刻的+86%的提升。这一成就突显了该模型弥合不同语言和数学领域之间差距的能力,为解决问题提供了一种全面而综合的方法。
Sarvam-M的发布紧随Sarvam AI推出的新型语音模型Bulbul之后,该模型具有真实的印度口音。这进一步证明了该公司致力于创造在文化上相关且符合印度市场细微差别的AI解决方案。
比较
Sarvam AI自信地断言,Sarvam-M在大多数基准测试中都优于Meta的LLaMA-4 Scout。该公司还声称,该模型的性能与更大的密集模型(如LLaMA-3 70B和Google的Gemma 3 27B)相当。考虑到这些模型是在明显更多的token上进行预训练的,这一点值得注意。
Sarvam-M:LLaMA-4 Scout的挑战者,并与更大的模型相媲美
Sarvam-M能够以更少的参数实现与这些更大的模型相似的性能水平,这证明了其高效的架构和优化的训练方法。它突显了更小、更灵活的模型与更大、资源更密集的模型有效竞争的潜力。
然而,该公司承认,在“英语知识相关基准”方面仍有改进空间,其中Sarvam-M比基线模型MMLU下降了约1%。这是Sarvam AI正在积极努力解决的一个领域,以进一步提高模型的整体性能和多功能性。
Sarvam-M是开源的,并且可以在AI社区平台Hugging Face上免费获得。 APIs可供希望将其集成到其产品中的开发人员使用。 这种可访问性使开发人员可以轻松地使用该模型并探索创新应用程序。
特点
Sarvam-M是一款多功能模型,专为高级Indic技能而设计。该模型无缝支持“思考”和“非思考”模式,轻松适应不同的任务要求。
Sarvam-M:具有高级Indic技能的多功能AI模型
“思考”模式适用于复杂的逻辑推理、数学问题和编码任务。它使模型能够分析和解决需要深入认知处理的复杂问题。
“非思考”模式适用于高效的通用对话。它允许模型进行更轻松和自发的对话,而无需相同水平的分析严谨性。
该模型经过专门的印度语言后期训练,并结合英语,真实地反映了印度文化价值观。这确保了该模型能够在不同的文化背景下进行有效和尊重的沟通。
它还完全支持Indic文字以及印度语言的罗马化版本。此功能进一步增强了该模型满足印度市场特定需求的能力。