阿里 QwQ:320亿参数挑战DeepSeek-R1?
阿里巴巴 Qwen 团队推出 QwQ 模型,旨在以小巧的体积挑战大型模型的性能。QwQ 仅有 320 亿参数,却在数学、编码和函数调用等特定基准测试中超越了 DeepSeek R1。
阿里巴巴 Qwen 团队推出 QwQ 模型,旨在以小巧的体积挑战大型模型的性能。QwQ 仅有 320 亿参数,却在数学、编码和函数调用等特定基准测试中超越了 DeepSeek R1。
继DeepSeek之后,阿里巴巴的通义千问QwQ-32B凭借其参数和开源优势,正崛起成为下一个广泛应用的大语言模型(LLM)。QwQ-32B在性能和实用性之间架起桥梁,降低了计算需求,推动了AI的普及,并促进了国内芯片发展。
AMD 发布 Ryzen AI Max+ 395 性能声明,展示了其在 AI 基准测试中相对于英特尔 Lunar Lake CPU (Core Ultra 7 258V) 的显著优势,特定 AI 工作负载性能领先高达 12.2 倍。这归功于 Zen 5 + RDNA 3.5 芯片架构。
百度推出Ernie X1和Ernie 4.5,前者对标DeepSeek R1,后者在多模态理解方面表现出色,旨在与OpenAI的GPT-4o竞争。百度还计划开源其Ernie模型代码。
清华大学与清程.AI联合推出名为'赤兔 (Chitu)'的新AI框架,旨在减少中国对Nvidia GPU的依赖,特别是在大型语言模型 (LLM) 推理方面。初步测试显示,推理速度提升315%,GPU使用率降低50%。
继DeepSeek的R1发布后,中国科技巨头纷纷加速AI模型开发。百度推出ERNIE 4.5和ERNIE X1;阿里云推出通义千问QwQ-32B;腾讯推出混元Turbo S。中国在大语言模型方面具有优势,政府支持和政策推动了AI产业发展。
DDN、AI模型先锋Mistral AI和AI云平台Fluidstack强强联合,构建强大AI基础设施,用于训练和部署大型语言模型(LLMs)。该合作旨在提升企业AI成功率、灵活性、部署便捷性和成本效益,助力企业、政府和云提供商充分利用AI的变革潜力。
电动汽车革命的核心在于电池技术的突破。固态电池、锂硫电池等新一代技术正在推动续航里程的提升、充电时间的缩短以及成本的降低。电池回收和政府政策也对电动汽车的普及至关重要。
谷歌Gemini 2.0 Flash AI模型的'实验性'功能正向更多开发者开放,其中去除照片水印的能力引人注目,但也引发了对版权和伦理的担忧。
DeepSeek的出现促使Amazon迅速调整产品、销售策略和内部开发。本文揭示了Amazon如何应对竞争、强调隐私和安全,并利用自身优势。