3月29日21时35分左右,DeepSeek状态监控页面亮起红灯——“MajorOutage”(大面积瘫痪)。

这场跨夜的故障一直拖到了第二天早上仍未缓解。

3月30日9时许,据多名用户反馈,DeepSeek依旧无法正常使用,用户提问时反复出现“请检查网络后重试”。

随后,DeepSeek回应称正在调查服务中断情况。

打开网易新闻 查看精彩图片
打开网易新闻 查看精彩图片

作为一类高频调用的大模型产品,服务一旦中断,影响往往会被迅速放大,也直接牵动用户黏性与后续付费转化预期。

宕机冲击使用场景:用户短暂分流,产品体验差异放大

在这超长时间的断联期里,社交平台很快被相关讨论占据。从用户反馈来看,有人正在为周一早八点的全英文专业课做最后的论文修改,有人在梳理次日的求职面试大纲,也有人卡在周报收尾阶段。

打开网易新闻 查看精彩图片

除了工作与学习场景外,也有用户在进行更偏个人化的使用。有用户正在进行情感类对话,有人在构思长篇小说设定,也有人依赖模型推进文本创作。服务中断后,这些过程被迫暂停。

当页面长时间停留在“服务器繁忙”提示时,不少用户一开始并未意识到是平台问题,而是反复切换网络、清理后台甚至重启设备。直到相关话题在社交平台集中出现,才逐渐确认问题来自服务端。评论区中,“D老师”“电子伴侣”等称呼频繁出现,也侧面反映出部分用户已形成较强使用习惯。

服务中断带来的影响很快显现。有用户反映未保存内容丢失,也有人表示原本依赖AI完成的任务被迫中断。部分网友则以调侃方式表达不满。

随着宕机消息扩散,短时间内小红书和微博等平台涌现出大量求助与吐槽。在确认短期内无法恢复使用后,一部分用户转向豆包、元宝、通义千问等其他大模型平台作为替代。从反馈来看,不同产品在表达风格、上下文记忆能力等方面的差异被明显放大。

值得注意的是,在DeepSeek短暂恢复阶段,部分此前分流的用户出现了较快回流。这也说明,在临时替代与长期使用习惯之间,不少用户仍会做出取舍。从竞争角度看,这类行为本身也提供了一个直观的观察窗口。

算力压力与商业化矛盾:稳定性成为新的竞争变量

随着用户反馈持续发酵,DeepSeek官方账号评论区也出现更多连锁反应。有用户提到,在网络卡顿过程中误删了尚未保存的文本内容,也有人在进行论文修改、补充引用时被迫中断操作。个别用户还晒出系统卡顿前的对话截图,表达对服务中断的不满。这类讨论在短时间内集中出现,也显示出突发故障对高频使用用户的直接影响。

打开网易新闻 查看精彩图片

围绕平台稳定性的讨论也随之升温。有用户在评论区质疑近期服务波动频率,并关注是否会有进一步说明或补偿安排。也有重度用户提到,在服务恢复初期,模型在语气连贯性、复杂问题处理等方面出现波动,与此前体验存在差异。

从使用体验来看,长期训练与调优形成的交互能力,正在逐步影响用户选择。相比单纯的参数规模或功能扩展,系统稳定性与连续使用体验,对用户是否持续使用开始变得更为关键。

需要注意的是,宕机带来的影响并未立即消散。截至29日23时许,仍有用户反馈服务存在间歇性不稳定情况,表现为短暂恢复后再次中断。也有部分重度用户提到,系统恢复后在文本风格与输出质量上出现波动,例如表达一致性下降、生成质量不稳定等。

打开网易新闻 查看精彩图片

宕机恢复后,新黄河记者多次向DeepSeek询问是否发生故障,得到的回复存在差异。部分对话中,系统将异常归因为用户网络波动,或以“短暂技术问题”进行回应;也有个别情况下提到21时35分前后访问量激增,导致服务拥堵与连接失败。这种信息反馈上的不一致,也让外界对大模型在异常情况下的应对方式产生关注。

事实上,此类宕机并非个例。随着大模型能力持续提升,系统负载也在同步增加。以1MTokens长上下文为例,在支持更复杂任务的同时,也显著提高了算力消耗。光模块、液冷系统及GPU集群等基础设施,仍构成当前AI服务的底层支撑。

在高频调用与长文本交互的叠加压力下,算力成本持续上升已成为行业共识。相比之下,C端商业化路径仍在探索,付费转化与规模化变现尚未形成稳定模式。

整体来看,这次宕机更像是行业阶段性问题的一次集中显现:一边是能力持续提升带来的算力压力,另一边是商业化路径尚未完全打通。如何在投入与回报之间找到平衡,仍是摆在大模型企业面前的现实问题。

截至发稿,新黄河记者查询DeepSeek公众号、小红书等官方渠道,尚未见其就本次大规模故障披露进一步的技术细节或说明。