这两天,我听说DeepSeek V4.0(以下简称DS4)灰度上线了,赶紧来试试!
(所谓“灰度”的意思,是随机挑选一些用户,也不告诉你,目的是为了做用户测试、反馈、进一步调整。据说DS4本轮的灰度测试是向全部用户开放的,你也可以用哦!)
首先,要确认一下DS的版本。我进入到DeepSeek的官网,直接问它“你是谁”?
根据它反馈的消息:上下文1M、知识截止至2025年5月,这两条就可以确认:它不是DS3.2(它只有128K下下文、知识截止至2024年8月),应该就是DS4.0了!
王珏老师也看了一些DS4的介绍,说是技术上也有很多突破,采用了很多创新的技术手段(比如:Engram技术,文末会有简单介绍),进一步大幅降低了服务成本、提高了响应速度。
不过,如果只是作为终端用户的话,架构的进化、技术的进步并不容易体会到。
不过,支持1M上下文(可以简单理解它可以同时处理为100万字),倒是可以直接体验的!
先来说说,上下文长度,起什么作用呢?
——如果你遇到过如下情况:当你把若干篇论文、或电子图书上传到ds中,ds可能会说:由于超长文本,只能解析其中的x%……这就是上下文长度不够的原因。
此前,DS只支持128K上下文,也就是大约只支持12万字左右的上下文。而DS4在这方面的性能提升了8倍!
以前,有不少老师问我:遇到上下文长度不够的,该怎么办呢?彼时,我只能给大家推荐Google Gemini 3.0 Pro,它是首个支持1M上下文的大模型。
现在,DS4也能支持1M上下文了,对于需要对大量资料、长文本进行分析、处理的场景(比如文献综述),可真是太实用了!
以下,是我对DS4是否真的支持100万字上下文的测试过程。
首先,我使用腾讯元宝(它目前用的应该是DS3.2版本)进行对照测试。
我向元宝中上传了一个400页的英文图书(文本)、以及该书的中文翻译稿,然后提出指令:找出翻译稿中,专业术语翻译不正确的地方:
结果,果不其然!它说“超出字数限制,只能阅读全文的9%”,最后只给我列出了6条。
然后,我来到Deepseek官网,做同样的操作:
DS4果然毫无压力,列出了全部10个章节中的63条。
值得一提的是,DS4在回答的最后,还会像GPT-5那样为你提出下一步的建议,感觉非常贴心:
随后,我又用老师最常见的场景:上传若干篇论文,然后做文献综述,进行了一轮测试。
首先是元宝(DS3.2),我向其中上传了13篇关于“具身认知”理论的论文:
元宝显示:只阅读了其中的38%,最后只列出了9条。
然后是DeepSeek官网,同样的操作:
DS4阅读了全部的文献内容,最后列出了25条。
由于我对这些文献比较熟悉,我感觉应该全对(不过并没有校验、确认,完全凭感觉)。
另外,25条是否足够全面呢?这个我就没办法知道了——毕竟,对于人类来说,做这项工作实在是太耗精力了,让人无法提起任何兴趣……
最后,我还让DS4将上述对照实验的数据,总结成为一张表(元宝的9篇我是逐篇确认的,元宝确实只提出了这9篇):
所以,DS4的上线,确实很好地解决了论文写作中,对大量文献进行调研、分析、综述的问题,感觉棒极了!
据报道,DS4还有一个地方提升极大:编程!编程能力,当然也需要超长上下文的支持,否则编到后面、很容易就对不上前面的了……
王珏老师确实也试了一下,对于比较复杂的程序,确实比DS3.2效果要好很多。这里只作一个情况汇报,就不再赘述了。
最后,如果大家有点兴趣的话,以下简要介绍一下DS中的一个突破性技术:Engram技术。这是DeepSeek去年发表的论文中就公开了的。
Engram技术的本质,是对常用的事实性知识引入了“记忆”的机制(存储在内存中)——比如“中国的首都是北京”,需要用的时候只需调出来即可,而不再需要用昂贵的显卡、及大量的计算资源,去从头“计算”这么简单的、不变的事实。
这样可以极大地节约成本(直接体现在调用 DS API的收费极低),而且还能提高大模型的响应速度和准确性。
关于Engram技术、以及它和前代技术路线的差别,我让Banana画了一幅信息图,大家看能看懂不:
好,本文就到这里了。相信你已经迫不及待了吧!
热门跟贴