4月24日,市场期待已久的DeepSeek-V4模型预览版正式发布。新模型支持百万token(词元)超长上下文,DeepSeek称其在智能体能力、世界知识和推理性能上均实现国内与开源领域的领先。

按参数规模不同,DeepSeek-V4系列分为DeepSeek-V4-Pro和DeepSeek-V4-Flash两个版本。前者的总参数量达1.6万亿、激活参数为490亿;后者的总参数量为2840亿,激活参数为130亿。

尽管轻量版DeepSeek-V4-Flash的参数量更小,但推理能力接近DeepSeek-V4-Pro,在运行智能体简单任务上与DeepSeek-V4-Pro旗鼓相当,但在高难度任务中仍有差距。官方称DeepSeek-V4-Flash主打性价比,能够提供更加快捷和经济的API服务。

技术报告指出,DeepSeek-V4系列在长上下文场景中具有极高的效率。和上一代DeepSeek-V3.2模型相比,DeepSeek-V4-Pro大幅降低了对计算和显存的需求。在100万上下文设置下,DeepSeek-V4-Pro的单token推理计算量仅为DeepSeek-V3.2的27%,KV缓存(一种加速模型推理生成的机制)仅为其10%。DeepSeek称这得益于一种全新的注意力机制设计。

“这使我们能够在实际应用中稳定支持百万级上下文,从而使长时序任务更加可行。”技术报告写道。

打开网易新闻 查看精彩图片

DeepSeek-V4-Pro-Max的测试性能。

具体性能表现上,技术报告显示,DeepSeek-V4-Pro-Max(即DeepSeek-V4-Pro的最大推理强度模式)的智能体能力与月之暗面Kimi-K2.6和智谱GLM-5.1等领先的开源模型表现相当,但略逊于顶级闭源模型。在内部评估中,DeepSeek-V4-Pro-Max超越Anthropic的Claude Sonnet 4.5,并接近其2025年11月推出的Opus 4.5的水平。

知识能力方面,DeepSeek-V4-Pro-Max在多个测试基准上显著优于领先的开源模型,仍落后于谷歌旗下的顶尖闭源模型Gemini-3.1-Pro,不过差距已显著缩小。

推理性能上,DeepSeek-V4-Pro-Max展现出优于GPT-5.2和Gemini-3.0-Pro的表现,但仍略低于GPT-5.4和Gemini-3.1-Pro。技术报告称这表明其发展水平大约落后当前最先进前沿模型约3至6个月。

DeepSeek未在技术报告中指出新模型预训练所使用的具体芯片型号和规模。而在DeepSeek-V3的技术报告中,曾披露该模型训练仅使用了2048块英伟达H800 GPU。

不过,华为方面在DeepSeek-V4模型发布后表示,华为昇腾芯片一直同步支持DeepSeek系列模型,本次通过双方芯模技术紧密协同,实现昇腾超节点全系列产品支持DeepSeek-V4系列模型。华为称,昇腾950超节点能实现高吞吐、低时延的DeepSeek-V4模型推理部署。

DeepSeek-V4模型的发布,正值DeepSeek公司被曝首次对外融资之际。据科技媒体The Information报道,腾讯和阿里巴巴正在洽谈投资DeepSeek,估值超过200亿美元。腾讯和阿里对此未公开回应。

采写:南都N视频记者 杨柳