出品|搜狐科技
作者|郑松毅
编辑| 杨 锦
V4,真的要来了?
数小时前,DeepSeek官网悄然完成一轮界面更新,核心对话模块新增“快速模式”与“专家模式”双选项,这是其自走红后首次推出模式分层功能,疑似新模型V4剧透曝光,瞬间引发圈内讨论。
新模型启动界面也从“与DeepSeek-V3.2免费对话”,变为“与DeepSeek免费对话体验全新旗舰模型”。
伴随更新同步发酵的还有 “全面抛弃英伟达、改用华为昇腾芯片”传闻,更是将这家低调的AI公司推至舆论中心。搜狐科技第一时间实测新模型功能,并探寻业内评价,试图还原此次低调更新背后的技术信号与行业猜想。
还不支持真正的“视觉识别”
做数独“翻车”
此次DeepSeek官网更新并不复杂,核心变化集中在对话交互区。“快速模式”和“专家模式”形成“日常版”和“专业版”的清晰区分。
搜狐科技实测发现,快速模式更适合日常对话,及时响应,新增图片识别、文件文字提取等基础多模态能力。而专家模式则完全转向专业场景,官方标注“擅长复杂问题,高峰需等待”,但暂不支持任何形式文件上传(无多模态)。
搜狐科技先针对新增多模态功能进行测试,快速模式下可以识别文件或图片中的文字,比如识别发票,内容信息提取得还是挺准确的。
但当小编把自己家猫在嗅花束的照片喂给模型,想让模型猜猜小猫的品种时,却没得到期待的答复。
DeepSeek坦言,自己暂时还不支持真正的“视觉识别”( 比如识别照片里的人是张三还是李四,或判断一张图里猫的位置)。目前对照片的处理主要基于OCR提取文字。
随后又用经典考题,测了测更新后模型的逻辑能力——“想洗车,我家距离洗车店只50米,你建议我开车去还是走路去?”
快速模式下的回复简单明了,像是不想多啰嗦一句话。
而专家模式的回答更具幽默感,像是在用问题打趣,讲了个段子。
虽然这次在逻辑题上没出错,但有网友实测表示,新模型在“数独”游戏上还是“翻车”了——在展现巨长的求解过程后,模型直接卡死,不再接受提问。
再来看看两个模式下的编程创作能力,搜狐科技让模型做了个贪吃蛇游戏。
快速模式:
专家模式:
事实上快速模式并未比专家模式快多少,都是3分钟左右。相比之下,专家模式做出来的可视效果更显高级些,鼠标悬浮在按键时会触发荧光效果。
换芯传闻发酵:抛弃英伟达,全面转向华为?
比产品更新更引爆行业的,是 “DeepSeek V4将彻底抛弃英伟达芯片,全面改用华为昇腾” 的传闻。
有报道称,DeepSeek已完成 V4 模型底层代码重构,从英伟达CUDA框架全面迁移至华为 CANN框架,新一代模型将原生适配华为昇腾950PR芯片,彻底摆脱对美国芯片的依赖。
这一传闻并非空穴来风。早在去年2月,DeepSeek就与华为合作,基于昇腾 910B芯片完成R1模型的适配优化,当时推理性能已比肩英伟达高端GPU。
有业内人士透露,进入2026年双方合作更为紧密。DeepSeek未按行业惯例将V4 预发布版本交给英伟达优化,而是优先交付华为进行深度适配,V4的训练与推理环节,均已在昇腾集群上完成多轮测试。
有观点认为,“DeepSeek换芯,本质是技术自主与成本控制的双重选择。一方面,美国对 AI 芯片出口限制持续收紧,高端英伟达芯片供货不稳定,价格居高不下;另一方面,华为昇腾950PR的算力性能已接近 H100,完全能支撑大模型规模化部署。”
但也有持谨慎态度的业内人士对搜狐科技表示担忧,“全面替换并非易事,CANN与CUDA框架差异存在,模型迁移需大规模验证。短期来看,DeepSeek大概率会采取国产芯片为主、英伟达为辅的过渡方案。”
业内评价分化,观众不再为热度买账
对于此次更新与相关传闻,业内评价呈现明显分化。
有支持者认为,DeepSeek新模型发布后有望再次重置全球AI竞争格局,加速中国AI产业化进程,打破海外垄断。
值得注意的是,随着V4传闻持续发酵,业内的质疑声不断。
不少开发者表示,“DeepSeek的迭代速度已落后于同行,现在豆包、千问等国产模型早已实现成熟的多模态能力,而DeepSeek基础多模态功能仍只局限于快速模式,专家模式甚至不支持,即便后续能补齐短板,也已错失抢占市场的最佳窗口。”
更有犀利评论直言,“V4若没有革命性突破,很难再吸引开发者回流。”
企业侧的态度则更为务实。多家科技企业负责人向搜狐科技表示,“对DeepSeek V4新模型发布持观望态度,更关注模型能力和使用价格,不会像去年DeepSeek刚火时急于接入测试,毕竟模型切换的风险和成本都不低。”
截止发稿,DeepSeek官方尚未对V4发布时间、芯片替换传闻作出正式回应。随着网传的V4发布窗口期不断临近,究竟是小步迭代的产品优化,还是将致整个市场重新洗牌,答案或许很快将揭晓。
运营编辑 |曹倩审核|孟莎莎
热门跟贴