DeepSeek双模型重磅开源 长文本与深度思考能力再突破

DeepSeek双模型重磅开源 长文本与深度思考能力再突破

2025年12月03日 10:40
本文共计583个字,预计阅读时长2分钟。
来源/aibase 责编/爱力方

本文转载自AIbase

原文标题:DeepSeek V3.2 双模型发布:线性复杂度长文本 + 无惩罚深度思考,开源阵营再冲第一梯队

DeepSeek 发布 V3.2(标准版)与 V3.2-Speciale(深度思考版),官方评测显示:

- V3.2在128k 上下文场景下与 GPT-5互有胜负

- V3.2-Speciale 在 MMLU、HumanEval 等基准中与 Gemini3Pro 打平,IMO2025盲测获金牌分数线83.3%

转正稀疏注意力(DSA)是核心升级:通过“目录”式路由token,将长文本计算复杂度从O(n²)降至O(n),显存占用下降40%,推理速度提升2.2倍,首次在开源模型实现百万token单卡推理。

image.png

后训练环节,团队把>10%整群算力投入强化学习,采用组对强化学习(GRPO)+多数投票,让模型在代码、数学与工具调用任务上逼近闭源对手。V3.2-Speciale取消“思考长度惩罚”,鼓励更长链式推理,平均输出token较Gemini3Pro高32%,但准确率提升4.8个百分点。

image.png

模型已上线GitHub与Hugging Face,权重采用Apache2.0协议,允许商业化。DeepSeek表示,下一步将开源长文本DSA内核与RL训练框架,继续把“闭源优势”转化为社区基础设施。行业评论称,若后续版本保持迭代节奏,开源阵营有望在2026年前实现“长文本+推理”双重领先。

声明:本文来自aibase,版权归作者所有。文章内容仅代表作者独立观点,不代表A³·爱力方立场,转载目的在于传递更多信息。如有侵权,请联系 copyright#agent.ren。

相关图文

热门资讯