DeepSeek-V4中午刚开源!100万上下文,超越Opus-4.6!

2026-04-24

关注CAIE,国内头部AI人才认证、培训体系,助你在职场升职加薪。
CAIE注册人工智能工程师
CAIE注册人工智能工程师
公众号作者
CAIE,全称 Certifed Artifcial Intelligence Engineer(人工智能工程师),简称 CAIE(赛一) ,是人工智能领域的技能等级认证。旨在评估和培养具备人工智能理论基础与实战能力的职业人士。

今天中午11点,DeepSeek-V4预览版终于开源了。

这一次DeepSeek没有停留在参数堆砌,而是从底层架构到实际效率全链路突破。

不仅把100万上下文做到真正可用,还在多项核心能力上超越Opus-4.6,仅次于GPT-5.4Gemini-3.1-Pro顶尖模型,成为当前最强开源模型之一。

开源地址:https://huggingface.co/deepseek-ai/DeepSeek-V4-Pro

https://huggingface.co/deepseek-ai/DeepSeek-V4-Flash

超强测试数据

DeepSeek官方放出了和Claude-Opus-4.6-MaxGPT-5.4-xHighGemini-3.1-Pro-High三款全球顶级模型的横向评测数据,多个关键维度成绩大幅领先Opus-4.6GPT-5.4

通用常识问答基准上,V4拿到57.9%的成绩,大幅领先Claude46.2%GPT45.3%,仅略低于Gemini75.6%,在基础事实问答能力上,已经和两大闭源对手拉开了明显差距。

专业知识基准测试中,V4成绩达到37.7%,和Claude40%GPT39.8%差距微乎其微,基本站在了同一水平线,专业冷门知识的记忆调取能力,完全对标国际旗舰水准。

来到全场最硬核的高阶数学推理测试,V4直接拿下全场最高分90.2%。对比来看,Claude85.9%GPT78.1%,就连Gemini也只有89.1%

也就是说,在奥数级、竞赛级的高难度深度逻辑推理上,V4已经稳稳反超OpusGPT,推理深度和解题正确率实现全面领跑。

综合复杂任务基准里,V4交出67.9%的亮眼答卷,领先Claude65.4%,虽然暂时不及GPT75.1%Gemini68.5%,但差距已经压缩到极小,实战表现相当亮眼。

最后在下一代AI核心的工具调用与智能体综合能力测试中,V451.8%的成绩位列四模型第一,领先Claude47.2%Gemini48.8%,仅小幅落后GPT54.6%

在多工具联动、自主规划执行这类决定AI上限的能力上,开源出身的DeepSeek,已经实打实完成了对两大国际闭源巨头的超越。

原生支持100万上下文

这次推出的DeepSeek-V4一共两款型号,分别面向极致性能和高效普惠,并且都原生支持一百万token的超长上下文。

旗舰版本DeepSeek-V4-Pro总参数规模达到1.6万亿,实际每步激活参数490亿,直接对标ClaudeOpus-4.6GPT-5.4Gemini-3.1-Pro这类顶级闭源模型。

专门处理复杂推理、长文档精读、大规模代码工程和专业智能体任务。

另一款轻量化版本DeepSeek-V4-Flash总参数284亿,激活参数仅13亿,在推理能力接近旗舰的前提下。

把速度和成本做到极致,日常办公、通用文本处理、轻量智能调用都能轻松胜任。

两款模型的训练基础都非常扎实,分别使用33万亿和32万亿高质量token完成预训练,内容覆盖通用文本、科研资料、代码、长文档和多语言知识,让模型在各类场景下都有稳定的输出能力。

真正让人惊喜的是效率提升,在一百万token的超长上下文场景下,对比上一代的DeepSeek-V3.2Pro版本的单token推理算力消耗仅为原来的27%,缓存占用更是降到十分之一。

轻量化版本表现更夸张,算力消耗仅为原先的10%,缓存占用只有7%

这意味着百万上下文不再是只能展示的技术概念,而是企业和开发者都能稳定部署、低成本使用的实用能力,大模型终于从短对话走向完整的长流程任务处理。

V4架构三大创新

能实现这样的突破,核心来自三处架构创新。首先是全新的混合注意力机制,传统大模型处理超长文本时,计算量会急剧增长,而V4系列将压缩稀疏注意力和重度压缩注意力交替使用。

一边对信息进行高效压缩,一边精准保留关键内容,既不丢失细节,又把计算和显存开销压到最低。同时模型采用混合精度缓存设计,进一步减少存储压力,加速推理过程。

其次是流形约束超连接技术,超大参数模型在训练中很容易出现信号不稳定、训练崩溃的问题。

这项技术相当于给模型搭建了稳定的传输通道,让信息在深层网络中平稳传递,解决了万亿参数模型训练的稳定性难题,让1.6万亿参数的Pro版本可以安全高效地完成训练。

最后是全新的Muon优化器,相比传统优化器,它能让模型训练收敛更快,过程更平稳,大幅减少训练异常波动,同时还能兼容以往的参数配置,降低调参成本,让整个研发流程更高效。

除此之外,模型还优化了混合专家架构,用大总参数保障知识容量,用小激活参数控制推理成本,实现性能和开销的平衡。

架构创新之外,从训练到推理的全流程工程优化也让这些技术真正落地可用。

针对混合专家模型的通信瓶颈,团队实现了计算和通信的无缝重叠,大幅提升运行速度。使用专属语言开发高效算子,减少系统调度开销,保证数值精度稳定。

同时加入FP4量化感知训练,在不影响效果的前提下,进一步降低内存占用,提升推理速度。

训练框架专门适配百万上下文和新优化器,推理框架则设计了异构缓存结构,支持重复内容快速复用,让长文本处理效率再上一个台阶。

想系统掌握AI核心技能、获取行业认可资质?

CAIE注册人工智能工程师认证

助你拓宽职业赛道,成为AI领域持证实力派

微信小程序
CAIE 认证
CAIE 认证
CAIE认证
以上内容来自微信小程序

企业、高校及渠道合作

请联系微信:FYLlaoshi

图片

完 谢谢观看

确定要退出登录吗?
确定 取消
推广有奖