
智东西
智东西2月13日音书,今天,蚂围聚团开源环球首个基于搀杂线性架构的万亿参数念念考模子Ring-2.5-1T。
左证官方信息,比拟蚂蚁2025年10月发布的万亿级念念考模子Ring-1T,Ring-2.5-1T在生成成果、推理深度和万古程任务引申材干三个要害维度上完结普及,且在长文本生成、数学推理与智能体任务引申上达到开源开始水平。
在生成成果上,Ring-2.5-1T在32K以上长文本生成场景中,对比上代模子访存限制缩小至1/10,生成微辞普及3倍以上。
在深度念念考材干方面,该模子在海外数学奥林匹克竞赛(IMO 2025)和中国数学奥林匹克(CMO 2025)自测均达到金牌水平,IMO为35分、CMO为105分。

当今,该模子依然适配Claude Code等智能体框架与OpenClaw个东谈主AI助理,扶植多步决议与器具调用。
Ring-2.5-1T的模子权重与推理代码已在Hugging Face、ModelScope等主流开源平台发布,官方平台Chat体验页和API处事将在近期上线。
Hugging Face:https://huggingface.co/inclusionAI/Ring-2.5-1T
ModelScape:https://modelscope.cn/organization/inclusionAI
一、拿下多项开源SOTA,达IMO金牌水平为了评估Ring-2.5-1T的深度念念考与万古任务引申材干,蚂蚁策动东谈主员弃取了具有代表性的开源念念考模子DeepSeek-v3.2-Thinking、Kimi-K2.5-Thinking和闭源API GPT-5.2-thinking-high、Gemini-3.0-Pro-preview-thinking-high、Claude-Opus-4.5-Extended-Thinking动作比较。
蚂围聚团公布的多项泰斗基准测试罢了透露,Ring-2.5-1T在数学、编程和逻辑推理的IMOAnswerBench、AIME 26、HMMT 25、LiveCodeBench、ARC-AGI-V2等高难度推理任务以及Agent搜索、器具调用和软件工程Gaia2-search、Tau2-bench和SWE-Bench Verified等万古任务引申方面均完结了起先进的开源性能。
此外,蚂蚁还对深度念念考(Heavy Thinking)款式下的模子性能进行了稀零测试,Ring-2.5-1T在IMOAnswerBench、HMMT-25等数学竞赛推理基准和LiveCodeBench-v6代码生成基准中超过所有对比模子。
其中,在IMO 2025(满分42分)中,Ring-2.5-1T得到35分,达到金牌水平;在CMO 2025(满分126分)中,该模子得到105分,高出金牌分数线78分和国度队集训队遴荐线87分。
策动东谈主员比较了Ring-2.5-1T和Ring-1T的谜底发现,前者在推理逻辑的严谨性、高档数学证据时期的诳骗以及谜底表述的完满性方面均有普及。
在智能体搜索任务Gaia2-search中,Ring-2.5-1T在开源模子中取得了SOTA性能。Gaia2环境强调跨诳骗器具合作和复杂任务引申材干,Ring-2.5-1T在决议生成和多步器具调用方面均展现出较高的成果和准确性。
二、三大约害维度普及,能快速适配Claude Code、OpenClaw比拟蚂蚁2025年10月发布的万亿级念念考模子Ring-1T,Ring-2.5-1T在生成成果、推理深度和万古程任务引申材干三个要害维度上有权臣鼎新。
开始在生成成果方面,通过选用高比例线性留心力机制,Ring-2.5-1T将内存打听支拨缩小至1/10,并将高出32K token序列的生成微辞量提高了3倍以上,适用于深度念念考和万古程任务引申。
其次在深度念念考层面,该模子在RLVR(基于可考证奖励的强化学习)基础上引入密集奖励机制,为推理过程提供严格性反馈,使Ring-2.5-1T同期达到IMO 2025和CMO 2025(自测)的金奖水平。
终末是长程任务引申,Ring-2.5-1T通过大限制王人备异步智能体RL(强化学习)磨真金不怕火,增强了不断复杂任务的万古程自主引申材干,使其能快速适配Claude Code等智能体编程框架和OpenClaw个东谈主AI助手。
三、引入搀杂线性留心力架构,可普及长程推理场景微辞量Ring-2.5-1T基于Ling 2.5架构,通过优化留心力机制,可普及长文本推理的成果与踏实性。
动作完结自主模子架构的要害进展,Ling 2.5架构在Ling 2.0架构的基础上引入了一种搀杂线性留心力架构。通过增量磨真金不怕火,策动东谈主员将Ling 2.0架构中的GQA(分组查询留心力)升级为MLA(多头线性留心力)+Lightning Linear结构的1:7比例。
具体来说,基于其先前发布的Ring-flash-linear-2.0时期途径图,策动东谈主员将部分GQA层调度为Lightning Linear留心力,以普及万古程推理场景中的微辞量。
同期为了进一步压缩KV缓存,策动东谈主员将剩余的GQA层同样调度为MLA,同期针对QK Norm(查询-核归一化)和Partial RoPE(部分旋转位置编码)等特征进行针对性鼎新,从而增强Ling 2.5架构的抒发材干。

在此基础上,模子激活参数限制从前代的51B普及至63B,而况在搀杂线性留心力架构的扶植下,其推理成果比拟Ling 2.0仍完结大幅普及。
与仅具备32B激活参数的Kimi K2架构比拟,在1T总参数目下,Ling 2.5架构在长序列推理任务中的微辞施展上风权臣,且跟着生成长度增多,成果上风握续扩大。

▲在一台配备8块H20-3e GPU的机器上,批处理大小=64,比较不同生成长度下的解码微辞量

▲在一台配备8块H200 GPU的机器上,批处理大小=64,比较不同生成长度下的解码微辞量
结语:从短对话到复杂决议,大模子需破损长文本瓶颈跟着AI大模子诳骗从短对话向长文档处理、跨文献代码厚实、复杂任务决议等场景推广,Ring-2.5-1T不错缓解模子在长输出场景下蓄意支拨高、推理速率慢的问题。
此前欧洲杯体育,传统架构在面对超长文本、多模态本体、复杂业务进程时,多数濒临算力老本高、反应延伸大、部署难度高等问题,蚂蚁百灵团队这次通过底层架构立异,或为行业提供一条兼顾性能、老本与推广性的时期旅途。
