騰訊混元-T1點燃AI競賽:Mamba架構新秀登場
騰訊推出基於Mamba架構的Hunyuan-T1大型語言模型,專注提升推理能力,加入全球AI競賽。此舉標誌著架構探索及亞洲科技實力的增強,與DeepSeek、ERNIE、Gemma等模型共同加速AI發展。
騰訊推出基於Mamba架構的Hunyuan-T1大型語言模型,專注提升推理能力,加入全球AI競賽。此舉標誌著架構探索及亞洲科技實力的增強,與DeepSeek、ERNIE、Gemma等模型共同加速AI發展。
騰訊推出Hunyuan-T1,基於TurboS混合Transformer-Mamba MoE架構的深度思考模型。透過大規模強化學習後訓練,顯著提升推理能力與人類偏好對齊,在多項基準測試中表現卓越,躋身頂尖推理模型行列。
Anthropic 透過創新的'電路追蹤'技術,深入探究大型語言模型 (LLM) 的內部運作,以解決'黑盒子'問題,提升 AI 的可解釋性、安全性與可靠性,揭示其概念表徵與推理過程的複雜性。
AI 公司 Anthropic 報告一項突破性技術,旨在揭示大型語言模型 (LLMs) 的內部運作,解決其'黑盒子'問題。此方法有助於理解 AI 的決策過程,提升 AI 的安全性、可靠性與可信度,應對諸如'幻覺'和'越獄'等挑戰。
中國公司 DeepSeek 推出升級版基礎 AI 模型 DeepSeek-V3-0324,在推理和編碼能力上顯著提升,並以極具競爭力的成本挑戰 OpenAI 和 Anthropic 等領導者,標誌著 AI 領域競爭加劇及地緣政治格局的轉變。
Google透過Gemini Advanced推出Gemini 2.5 Pro Experimental,宣稱其推理與編碼性能超越OpenAI、Anthropic等對手,強調基準測試表現及100萬token上下文窗口。
Google 推出 Gemini 2.5 Pro,宣稱在編碼、數學和科學領域的推理能力超越 OpenAI 和 Anthropic 等對手。特色包括將增強推理能力整合為標準、基準測試領先、強大的程式碼編輯能力,以及巨大的 100 萬 token 上下文窗口(即將擴展至 200 萬)。
據Artificial Analysis報導,來自中國的開源權重 (open-weights) 模型DeepSeek V3,在特定非推理 (non-reasoning) 任務上超越GPT-4.5等知名對手。此發展不僅改變排名,更因其開源特性挑戰了主流專有模型,引發關注。
Google 發布 Gemini 2.5,強大 AI 模型擅長推理與編碼。Gemini 2.5 Pro Experimental 登頂 LMArena 排行榜,展現先進'思考'能力、巨大上下文窗口及多模態理解,挑戰 OpenAI、DeepSeek 等對手。
Google 發布其'最智能'的 AI 模型 Gemini 2.5,以 Gemini 2.5 Pro Experimental 為首,專為複雜推理與程式碼生成設計,在基準測試中表現突出,具備多模態輸入與百萬 token 上下文窗口。