这两天,我听说DeepSeek V4.0(以下简称DS4)灰度上线了,赶紧来试试!

(所谓“灰度”的意思,是随机挑选一些用户,也不告诉你,目的是为了做用户测试、反馈、进一步调整。据说DS4本轮的灰度测试是向全部用户开放的,你也可以用哦!)

首先,要确认一下DS的版本。我进入到DeepSeek的官网,直接问它“你是谁”?

打开网易新闻 查看精彩图片

根据它反馈的消息:上下文1M、知识截止至2025年5月,这两条就可以确认:它不是DS3.2(它只有128K下下文、知识截止至2024年8月),应该就是DS4.0了!

王珏老师也看了一些DS4的介绍,说是技术上也有很多突破,采用了很多创新的技术手段(比如:Engram技术,文末会有简单介绍),进一步大幅降低了服务成本、提高了响应速度。

不过,如果只是作为终端用户的话,架构的进化、技术的进步并不容易体会到。

不过,支持1M上下文(可以简单理解它可以同时处理为100万字),倒是可以直接体验的!

先来说说,上下文长度,起什么作用呢?

——如果你遇到过如下情况:当你把若干篇论文、或电子图书上传到ds中,ds可能会说:由于超长文本,只能解析其中的x%……这就是上下文长度不够的原因。

此前,DS只支持128K上下文,也就是大约只支持12万字左右的上下文。而DS4在这方面的性能提升了8倍

以前,有不少老师问我:遇到上下文长度不够的,该怎么办呢?彼时,我只能给大家推荐Google Gemini 3.0 Pro,它是首个支持1M上下文的大模型。

现在,DS4也能支持1M上下文了,对于需要对大量资料、长文本进行分析、处理的场景(比如文献综述),可真是太实用了!

以下,是我对DS4是否真的支持100万字上下文的测试过程。

首先,我使用腾讯元宝(它目前用的应该是DS3.2版本)进行对照测试。

我向元宝中上传了一个400页的英文图书(文本)、以及该书的中文翻译稿,然后提出指令:找出翻译稿中,专业术语翻译不正确的地方:

打开网易新闻 查看精彩图片

结果,果不其然!它说“超出字数限制,只能阅读全文的9%”,最后只给我列出了6条

然后,我来到Deepseek官网,做同样的操作:

打开网易新闻 查看精彩图片

DS4果然毫无压力,列出了全部10个章节中的63条

值得一提的是,DS4在回答的最后,还会像GPT-5那样为你提出下一步的建议,感觉非常贴心:

打开网易新闻 查看精彩图片

随后,我又用老师最常见的场景:上传若干篇论文,然后做文献综述,进行了一轮测试。

首先是元宝(DS3.2),我向其中上传了13篇关于“具身认知”理论的论文:

打开网易新闻 查看精彩图片

元宝显示:只阅读了其中的38%,最后只列出了9条

然后是DeepSeek官网,同样的操作:

打开网易新闻 查看精彩图片

DS4阅读了全部的文献内容,最后列出了25条

由于我对这些文献比较熟悉,我感觉应该全对(不过并没有校验、确认,完全凭感觉)。

另外,25条是否足够全面呢?这个我就没办法知道了——毕竟,对于人类来说,做这项工作实在是太耗精力了,让人无法提起任何兴趣……

最后,我还让DS4将上述对照实验的数据,总结成为一张表(元宝的9篇我是逐篇确认的,元宝确实只提出了这9篇):

打开网易新闻 查看精彩图片

所以,DS4的上线,确实很好地解决了论文写作中,对大量文献进行调研、分析、综述的问题,感觉棒极了!

据报道,DS4还有一个地方提升极大:编程!编程能力,当然也需要超长上下文的支持,否则编到后面、很容易就对不上前面的了……

王珏老师确实也试了一下,对于比较复杂的程序,确实比DS3.2效果要好很多。这里只作一个情况汇报,就不再赘述了。

最后,如果大家有点兴趣的话,以下简要介绍一下DS中的一个突破性技术:Engram技术。这是DeepSeek去年发表的论文中就公开了的。

Engram技术的本质,是对常用的事实性知识引入了“记忆”的机制(存储在内存中)——比如“中国的首都是北京”,需要用的时候只需调出来即可,而不再需要用昂贵的显卡、及大量的计算资源,去从头“计算”这么简单的、不变的事实。

这样可以极大地节约成本(直接体现在调用 DS API的收费极低),而且还能提高大模型的响应速度和准确性。

关于Engram技术、以及它和前代技术路线的差别,我让Banana画了一幅信息图,大家看能看懂不:

打开网易新闻 查看精彩图片

好,本文就到这里了。相信你已经迫不及待了吧!