4月24日,DeepSeek正式发布V4大模型预览版,这是全球首个主要针对华为昇腾AI处理器深度优化的前沿大模型,实现全程脱离NVIDIA CUDA体系,标志着其彻底切换算力底座。该模型参数规模达1.6万亿,上下文窗口达100万token,分为Pro与Flash两个版本,其中Pro版性能比肩海外顶级闭源模型,输出定价每百万token24元,Flash版定价仅2元,显著低于海外同类产品。此次发布打破行业惯例,DeepSeek未向NVIDIA和AMD提供模型早期访问权限,而是提前数周与华为开展软件适配优化,华为也确认昇腾全系列超节点与最新950系列实现首日兼容。早在2025年8月,DeepSeek V3.1就已支持专为国产芯片设计的UE8M0 FP8 Scale参数精度,为脱离CUDA生态做好了技术铺垫。
美方紧急指控发出警告
DeepSeek V4发布当日,美国国务院便向全球各国大使馆发出外交电报,指示驻外工作人员警告外国政府,指控DeepSeek及月之暗面、MiniMax等中国AI企业涉嫌“窃取知识产权”和“模型蒸馏”。此前,OpenAI与Anthropic也曾提出类似指控,白宫还曾发布备忘录,指责中方开展工业化规模模型蒸馏。NVIDIA CEO黄仁勋此前已公开警告,若AI模型针对华为架构完成专属优化并实现最优运行,将使美国在全球AI竞争中面临重大损失,动摇其长期构建的技术优势。黄仁勋同时坦言,中国拥有充沛能源、完整芯片产业链和海量AI科研人才,强行割裂AI生态并非明智选择,反而可能反噬美国自身。
低价破局重塑行业定价
4月26日,DeepSeek宣布下调V4全系API输入缓存命中价格,降至首发价的1/10,创下全球大模型价格新低。其中,V4-Pro缓存输入价格从1元降至0.1元/百万token,5月5日前叠加限时优惠后低至0.025元;V4-Flash降至0.02元/百万token,缓存未命中与输出价格也同步降至原价的1/4。此次调价直击行业痛点,其缓存输入价仅为GPT-5.5 Pro的1/700,对RAG知识库、智能客服、文档分析等高缓存命中率应用场景,企业成本降幅可达90%以上。业内认为,此举不仅大幅降低企业长文本与高频调用场景的成本,更将重塑行业定价体系,倒逼海外模型降价,进一步巩固国产大模型的成本优势,加速AI应用普惠化。
自主突围改写AI格局
DeepSeek V4的发布对全球AI行业具有深远影响,最核心的意义在于打破了NVIDIA CUDA生态的长期垄断。长期以来,NVIDIA芯片在国内大模型训练市场占比高达95%,绝大多数顶级大模型高度依赖CUDA框架运行,而DeepSeek V4全程采用华为昇腾芯片训练,实现了软硬件协同的自主突破。其提前布局适配国产芯片的技术路线,也为其他国产大模型提供了借鉴,目前智谱GLM-5等已完成多款国产芯片适配,国产AI软硬件协同生态正加速成型。尽管当前国产芯片单卡性能仍有差距,但DeepSeek V4通过架构优化、软硬件协同,走出了差异化发展路线,证明我国可依托能源优势和集群组网,抵消单芯片性能短板,推动核心技术自主可控,彻底摆脱海外技术封锁,为国产AI产业长期发展奠定坚实基础。
热门跟贴