DeepSeek荣获2025年度最受欢迎LLM大模型奖
产品介绍:
DeepSeek-V3.2 是深度求索于 2025 年 12 月推出的新一代开源 MoE 大模型,主打“平衡实用”,在推理能力、输出长度与算力成本之间实现最优折中。模型采用自研 DeepSeek Sparse Attention,将 128 K 长上下文推理复杂度从 O(L²) 降至 O(L·k),显存占用降七成,速度提 3.5 倍,每百万 token 成本仅 0.2 美元,为同级最低 。通过把强化学习预算提升至预训练成本 10% 以上,V3.2 在 AIME 2025、HMMT 2025 等数学竞赛中分别达到 93.1% 与 92.5% 的通过率,比肩 GPT-5,略低于 Gemini-3.0-Pro 。模型首次支持“思考/非思考”双模式工具调用,可在单轮对话中保持多步思维链记忆,SWE-Verified 代码修复率 73.1%,Terminal Bench 2.0 准确率 46.4%,均创开源新高 。同时,DeepSeek 发布长思考增强版 V3.2-Speciale,融合 DeepSeek-Math-V2 定理证明模块,在 IMO、CMO、ICPC、IOI 四大赛事斩获金牌,ICPC 成绩达人类选手第二,IOI 进入前十,展现极限推理潜力 。V3.2 系列兼容 OpenAI 与 Anthropic 协议,输入 2 元/百万 token、输出 3 元/百万 token,128 K 上下文、64 K 输出长度,已为全球开发者提供低成本、可定制的高性能基座,标志开源模型首次与顶尖闭源模型正面对标 。
获奖理由:
DeepSeek-V3.2以“极致性价比”斩获2025年度最受欢迎LLM模型奖:128K长上下文推理速度提升3.5倍,百万token成本降至0.2美元行业最低;数学竞赛通过率93%,代码修复率73%,开源第 一;双模式工具调用+长思考版IMO摘金,首次让中小团队低成本调用顶尖推理能力,推动AI普惠。