Archives: 1

前OpenAI语音负责人创业:WaveForms AI获4000万美元种子轮融资

前OpenAI高级语音模型研发者Alexis Conneau创立的WaveForms AI,致力于开发情感通用智能(EGI)音频大型语言模型,并获得4000万美元种子轮融资。该公司采用端到端音频处理技术,旨在实现更自然、更人性化的人机交互。

前OpenAI语音负责人创业:WaveForms AI获4000万美元种子轮融资

国产多模态模型追平OPENAI-O1,训练细节公开

月之暗面发布Kimi k1.5多模态模型,在数学、代码和多模态推理能力上全面对标OpenAI的满血版o1,成为OpenAI之外首个达到此高度的模型。该模型在短链思维领域达到SOTA水平,并公开了其强化学习训练技术细节,展现了中国在人工智能领域的重大突破。

国产多模态模型追平OPENAI-O1,训练细节公开

OpenAI即将发布博士级超级AI Agent

OpenAI正计划推出博士级超级AI Agent,引发业界对AI取代中级软件工程师的担忧。Meta和Salesforce等公司已开始采用AI Agent提高生产力,并计划减少软件工程师招聘。超级AI Agent具备自主设定目标、处理复杂问题的能力,其核心技术包括机器学习、自然语言处理和复杂系统建模。早期测试显示其在数据分析、物流和软件开发等领域具有巨大潜力。

OpenAI即将发布博士级超级AI Agent

OpenAI 实时AI Agent 20分钟开发 源代码分享

OpenAI近期分享了一个基于实时API开发的多层级高级AI Agent项目,令人惊讶的是,这个语音智能体应用原型仅用了20分钟就完成了开发。该实时Agent具有实时响应、多层级协作框架、灵活的任务交接和状态机驱动的任务处理等技术优势,并采用大模型辅助决策。此外,它还提供了可视化WebRTC界面和详细的事件日志,方便用户使用和开发者调试。该项目展示了高效开发语音智能体的可能性,其快速开发能力和强大的功能令人印象深刻。

OpenAI 实时AI Agent 20分钟开发 源代码分享

扩散模型推理扩展新范式

本文探讨了在扩散模型推理过程中进行扩展的新范式,通过增加计算资源和优化采样噪声,显著提高了生成样本的质量。研究引入了验证器和算法两个核心组件,并探索了随机搜索、零阶搜索和路径搜索等算法,以优化采样过程。此外,该研究还考察了文本到图像生成任务中搜索框架的扩展能力,以及不同验证器和算法组合对生成质量的影响。结果表明,在推理时进行扩展可以有效地提升扩散模型的性能,并且在较小的模型上进行搜索可以取得与大型模型相媲美的效果。

扩散模型推理扩展新范式

OpenAI o3-Mini几周内发布 奥特曼称AGI仅需872兆瓦

OpenAI即将发布新模型o3-Mini,该模型是大型模型的蒸馏版本,性能虽不如O1-Pro但速度更快。同时,奥特曼表示实现AGI只需872兆瓦计算功率,引发业界对OpenAI技术进展的猜测。

OpenAI o3-Mini几周内发布 奥特曼称AGI仅需872兆瓦

阶跃新型注意力机制:KV缓存消耗降93.7% 性能不减反增

阶跃星辰与清华大学等机构联合发布多矩阵分解注意力(MFA)机制,显著降低大语言模型推理成本,KV缓存使用量减少高达93.7%,同时保持甚至超越传统MHA性能。MFA易于实现,对超参数不敏感,兼容多种位置编码,为大模型高效推理提供了新方案。

阶跃新型注意力机制:KV缓存消耗降93.7% 性能不减反增

ESM3蛋白质研究突破'免费API获Yann LeCun认可'

Evolutionaryscale的ESM3模型是蛋白质研究的重大突破,拥有980亿参数,能模拟5万亿年的自然进化。现在,ESM3免费开放API,并获得Yann LeCun的认可,它在理解和生成蛋白质方面具有巨大潜力,尤其是在医疗领域。

ESM3蛋白质研究突破'免费API获Yann LeCun认可'

微软MatterGen: AI材料设计突破,精度提升10倍

微软推出MatterGen,一款用于无机材料设计的突破性大型语言模型,基于扩散模型架构,能快速生成新型材料,尤其在锂离子电池正极材料的开发中展现巨大潜力。MatterGen通过优化原子类型、坐标和晶格,显著提高材料发现的效率和质量,生成的结构更接近DFT局部能量最小值,为电动汽车、航空航天和电子芯片等高科技领域带来革命性变革。

微软MatterGen: AI材料设计突破,精度提升10倍

斯坦福研究揭示ChatGPT性能下降

斯坦福大学和加州大学伯克利分校的研究人员在《哈佛数据科学评论》上发表了一篇名为'ChatGPT行为随时间变化'的论文,揭示了GPT-3.5和GPT-4在三个月内的性能和行为出现显著波动。研究发现,GPT-4在数学问题解决、代码生成等多个任务上的准确性下降,且遵循指令的能力也减弱。同时,研究还发现模型在处理敏感问题和内容过滤方面也出现了变化。这项研究强调了保持大型语言模型一致性和可靠性的挑战。

斯坦福研究揭示ChatGPT性能下降