密模型推理小模型 A队发布推理 AI 团R1隐秘32B 稠才能逾越
在大模型竞速进入推理才能深水区的密模 2025 年,一支奥秘的型推小模型团队悄然上台。他们不是越R隐秘来自一线大厂的 AI Lab,也没有高调预热和融资造势,团队推理而是发布在 Hugging Face 低沉开源了一款 32B 的推理模型:AM-Thinking-v1 。
令人惊奇的密模是,这个中等规划的型推小模型稠密模型 ,在多个要害推理评测中打败了 DeepSeek-R1 ,越R隐秘并与超大规划的团队推理 MoE 模型Qwen3-235B-A22B 、Seed1.5-Thinking 平起平坐 。发布
这款模型背面的密模团队,是型推小模型国内一个从未对外发表的研讨团队——A-M-team。他们不依靠私有数据 、越R隐秘不依靠海量核算资源 ,团队推理仅凭开源底座和练习管线的发布极致规划 ,就做出了敞开社区 32B 等级中最强的推理模型。
论文链接:https://arxiv.org/pdf/2505.08311。
功能全面逾越 DeepSeek-R1 :32B 模型中的“黑马”。
在当时干流评测中 ,AM-Thinking-v1 也交出了极具冲击力的成果单,仅 32B 的结构在数学推理(AIME 系列)和代码生成(LiveCodeBench)中别离取得了 85.3 和 70.3 的高分 ,不只全面逾越了 DeepSeek-R1(671B MoE 架构) ,还迫临乃至追平了 Qwen3-235B-A22B 和 Seed1.5-Thinking 等超大规划 MoE 模型的成果。
把“小体积 ,大推理”的极限范式展示得酣畅淋漓。
值得注意的是 ,AIME 系列标题来自美国数学邀请赛