4月,据知情人士透露,DeepSeek创始人梁文锋在内部沟通中首次明确,新一代旗舰大模型DeepSeek V4计划于4月下旬正式发布。
V4的核心突破集中在算力、架构适配与功能升级三大方面。
算力适配突破:全链路 "去 CUDA 化" 的里程碑尝试。
消息显示,该模型在推理阶段将首次全面适配华为昇腾等国产AI芯片,成为国内首个在全链路算力上旨在彻底摆脱对英伟达CUDA生态依赖的万亿级大模型。
市场对V4发布的预期已经产生了实际影响。据报道,为迎接新模型的集成与部署,阿里巴巴、字节跳动、腾讯等国内科技巨头已提前预订了数十万片新一代AI算力芯片,计划通过各自的云服务平台提供基于DeepSeek V4的模型服务。
核心架构设计根据爆料,该模型总参数达到万亿级别,采用混合专家(MoE)稀疏激活架构,每次推理仅激活约370亿参数。行业分析指出,这种设计使推理速度较V3提升约35倍、能耗降低约40%,推理成本仅为GPT-4的七十分之一。
同时,V4支持约百万Token的无损上下文处理,较V3系列实现质的飞跃,可一次性处理数本书籍或超长代码库,大幅提升复杂场景处理能力。此外,V4全面运行于国产AI芯片,底层代码完成生态迁移,适配相关框架,延续了DeepSeek的自主可控发展思路,且计划以Apache 2.0协议开源,支持企业自主部署与二次开发。
日前,4月8日凌晨DeepSeek网页端及APP悄然上线分层模式。新增“专家模式”,这是其首次引入产品端模式分层设计,外界认为这属于V4灰度测试的一部分。
快速模式:主打即时响应,适配日常对话与轻量场景,支持图片及文件文字识别。
专家模式:聚焦代码生成、数学推理等复杂任务,高峰时段需排队等待。
界面中还有“视觉”第三选项正在灰度测试,业内普遍认为这是V4原生多模态能力的预演,也是算力精细化调度的落地尝试。
而官方API仍以2025年12月更新的V3.2为主,但V4已进入全网灰度测试阶段,网页端“体验DeepSeek V3.2”的标识也已消失。
近期DeepSeek曾经历服务波动,成为V4上线前的小插曲。
其实早在3月底,其网页、App及API接口连续三天出现异常,最长中断时长近12小时,创下成立以来单次服务中断纪录。目前所有服务已全面恢复,业内人士推测,此次故障或与V4上线前的压力测试有关,用于验证模型集群稳定性与成本边界。
一边筹备V4上线,一边DeepSeek内部也在经历重要调整。
自2025年秋天起,梁文锋开始更多提及“产品化和商业化”,公司已组建数十人的产品团队,并开放产品、设计及行政等岗位招聘,适配团队规模扩大需求。随着同类企业上市后市值攀升,DeepSeek此前未融资、无明确估值的模式正带来内部压力,员工手中未定价的期权价值成疑,梁文锋近期已着手考虑公司估值问题。此外,去年底至今,包括数位核心技术作者在内的多名核心成员先后离职。
业内普遍认为,V4的正式发布有望延续这一优势,进一步巩固DeepSeek在全球大模型竞争中的领先地位。
来源:布谷财经
热门跟贴