田丰锐评
近日,快思慢想研究院院长、特邀评论员田丰接受《每日经济新闻》记者采访,就“SeeDance2.0大规模排队”现象发表精彩观点。
《每日经济新闻》提问1:本次Seedance 2.0出现的大规模排队、甚至付费会员都无法保障基础使用的事件。您认为当前国内AI行业出现的“技术领先、算力供给跟不上”的错位,核心诱因是什么?这是短期需求集中爆发带来的临时波动,还是国内大模型商业化进程中必然会出现的结构性供需矛盾?
田丰:快思慢想研究院分析认为,这不是短期的营销脉冲,而是国内大模型商业化中普遍存在的“结构性供需矛盾”。
1)多模态算力爆炸:相比纯文本推理,视频生成背后的多模态推理算力随用户访问量呈指数级放大,完全不在一个数量级,文本生成的边际成本极低(毫秒级),而生成一条15秒的高清物理逻辑视频,需要在云端完成成千上万次的去噪步数测算,Seedance2.0支持的原生音画同步、多镜头叙事也增加了推理计算量。高分辨率多模态模型的单条算力消耗是普通单模态语言模型的数十倍。
2)“尖峰时刻”的供需错配:“Seedance2.0时刻”堪称2026年春节最火爆的PMF产品需求爆发,内嵌该模型的即梦、剪映、小云雀、豆包在春节假期引来了庞大的C端流量,据我们保守估算Seedance2.0月活达到4500万人,但在国际高端芯片禁运的情况下,字节等国内厂商的推理集群算力密度、互联网带宽存在物理上限,就像有了“原子弹”但没有“导弹”打不出去一样错位,这将会成为最近3年我国成功破圈的AI产品“新常态”。
3)大算力带来大营收:2026年在美国Claude Code爆款产品身上,看到了“大算力-大营收”的良性商业闭环,但中国用户付费意愿和程度都比海外要低很多,只要“高质量视频生成的单位算力成本”不能下降到“用户可接受价格”的平衡点之下,这种排队和限流将长期存在。这是国产AI推理芯片崛起的良机,也是AI应用行业从“炫技”走向“实用”必经之路。
《每日经济新闻》提问2:目前不少用户反馈,算力短缺直接导致这款技术顶尖的多模态模型“根本没法当作生产力工具”。目前了解到,一方面是算力短缺,另一方面因为版权和人像的问题对生成内容还需要进行人工审核。在您看来,要让这类多模态工具真正成为像Office、Adobe一样的标准化生产力标配,算力侧需要建立什么样的供给、调度与商业化体系?在审核上有什么能够提效的机制吗?
田丰:快思慢想研究院分析认为,生产力工具的底层逻辑是“确定性(SLA,Service Level Agreement)”,必须重构现有的定价模型与审核机制,正如早期云计算的服务水平面对10倍算力峰值压力也是忽高忽低,后来引入SLA后才逐步提升服务可靠性、可用性与用户体验。目前Seedance 2.0用户普遍反馈“排队8小时,卡在99%审核失败”。要将其变成Adobe或Office级别的标配,必须在两端动刀。
1)算力SLA服务设计:废除“大锅饭订阅”,引入“算力期货与分级调度体系”。必须建立类似云计算(AWS EC2)的SLA分级收费商业体系:
将算力资源划分为“极速池”(企业级, guaranteed latency)、“标准池”(付费会员,优先级高)和“闲时池”(免费/低价,利用夜间或低负载时段)。Office/Adobe之所以稳定,是因为其云端资源是按企业合约预留的。
2)节约算力的商业化设计:建立“草稿与渲染”分级机制:正如即梦近期紧急上线的“Fast模式(低消耗高速度)”,生产力工具应允许用户用10%的算力快速生成低分辨率“动态分镜草图”,确认无误后,再调用重度算力进行“4K终极渲染”。
阶梯定价与Spot Instance(竞价实例):企业端用户购买的不再是“会员”,而是“保底并发算力(Reserved Compute)”;而C端用户则在闲时使用廉价的“竞价算力”。
3)审核机制的提效:从“后置拦截”走向“前置确权与潜空间(Latent Space)打标”。用户进度条卡在99%,是因为目前采用的是低效的“生成后视觉后比对审核”。为防范版权与假新闻,即梦目前甚至“一刀切”地暂停了真人图片参考功能。行业必须引入C2PA等内容溯源协议,将审核前置,节约算力、提升用户体验。通过“账户实名活体认证(如豆包现行策略)”+“企业白名单IP授权”,大幅豁免B端用户的实时审核耗时。同时,将敏感词与敏感视觉特征的拦截直接写入模型的“潜空间(Latent Space)”底层,而非等视频渲染了10分钟后再做阻断。
快思慢想研究院建议提效机制设计如下:
Prompt前置拦截:在用户输入提示词阶段,利用轻量级小模型实时识别违规意图(如侵权肖像、敏感政治),直接阻断生成请求,节省后端昂贵算力。
端到端水印与指纹:在生成过程中嵌入不可见水印,一旦检测到违规,通过指纹快速追溯,建立用户信用分体系,对高风险用户降权或预审核。
人机协同审核:利用多模态大模型进行99%的初筛,人工仅处理置信度低的1%边缘案例,并将审核结果反馈给生成模型进行RLHF(人类反馈强化学习),从源头减少违规内容生成概率。
《每日经济新闻》提问3:针对商用场景的算力缺口,目前行业出现了付费插队、企业专属算力池、分时错峰调度、区域算力协同等多种应对方案,在您看来,哪些方案具备长期落地的可行性?对于大模型厂商而言,在快速迭代模型能力与保障算力供给稳定性之间,应该如何做优先级与资源投入的平衡?
田丰:快思慢想研究院分析认为,“企业专属算力池”是长期可行性最强的商业模式;厂商必须将资源从“盲目堆参数”向“推理端降本”倾斜。
1)长期落地的可行性分析
付费插队 / 二手黄牛倒(低可行性):这是极度透支品牌信誉的短期过渡策略,缺乏长期价值。
分时错峰调度(中高可行性):非常适用于C端娱乐用户。大部分B端商业生产(广告、影视、游戏)遵循白天上下班工作时间,少部分企业利用全球时区差或昼夜差异(如夜间批量渲染),适合非实时性任务(如长视频渲染)。技术上成熟,但需教育引导用户习惯。
区域算力协同(中可行性):受限于网络带宽和数据跨境合规(数据不出省/不出境),实施难度大,但在“东数西算”政策下,针对离线渲染任务有潜力。
企业专属算力池(高可行性):对于影视公司、广告代理商、游戏设计公司,时间就是金钱。大模型厂商最终会走向MaaS(模型即服务),向大B客户提供物理隔离的专有推理集群保障SLA(服务等级协议)。
2)优先级的平衡战略
对于字节跳动等大厂而言,“秀肌肉”的阶段已经过去。未来的资源分配建议遵守 “361定律”:30%的顶级算力用于新一代基础模型(如研发Seedance 3.0)的预训练;60%的算力资源和顶级工程人才必须投入到“推理侧优化(Inference Optimization)”中,10%资源投入生态建设:开发者社区、插件生态,让用户在本地或边缘侧分担部分算力压力。采用模型蒸馏、量化(Quantization)、投机性解码等技术,将现有模型的单次调用成本和时间压缩到十分之一,高速降低的AI算力成本才是决定谁能活下去的AI商业胜负手。
《每日经济新闻》提问4:随着多模态技术的持续迭代,未来长视频生成、3D内容生成等高算力消耗的场景会持续扩容,您认为行业的算力供需矛盾会进一步加剧吗?长期来看,除了扩大算力基建投入之外,还有哪些方式能够从缓解大模型商用的算力瓶颈?
田丰:快思慢想研究院研究认为,供需矛盾将长期加剧,缓解之道在于“算法效率革命”与“端侧卸载”。
1)矛盾加剧的必然性
随着长视频(1~10分钟甚至20分钟)、3D生成、4K/8K分辨率成为标配,单次任务的算力需求将呈指数级增长,即AI需求的增速远大于算力摩尔定律增速。单纯依靠堆砌硬件将导致厂商现金流断裂。
2)除扩大基建外的四大缓解路径
路径一:端侧推理(Edge AI)的崛起
利用PC(NPU/GPU)和手机终端算力。对于轻量级任务(如短视频特效、初步分镜),直接在用户设备运行量化后的蒸馏模型(Distilled Models),仅将高难度渲染任务上云,形成“云侧->端侧”的算力转移。这将分流30%-50%的云端压力。该种方法与用户手机芯片配置有关,旗舰型手机算力性能会带来更好体验,同时应保证入门级手机的用户体验底线。
路径二:算法范式的革新
从纯Diffusion模型转向混合架构(如Flow Matching + Transformer),或探索自回归视频生成,大幅减少采样步数(从50步降至4-8步),力争在不牺牲质量的前提下提升推理速度10倍以上。
路径三:缓存与复用经济(Caching Economy)
建立全局的“元素缓存库”。对于常见的镜头运动、光影效果、人物动作,直接调用预渲染片段进行重组,而非每次从头生成。这需要建立全新的内容索引与检索技术。
路径四:商业模式的重构——从Token计费到结果计费
改变按“生成次数”收费的模式,转向按“最终采纳结果”或“商业价值”分成。这将倒逼厂商优化成功率,减少无效生成带来的算力浪费,并与用户形成利益共同体。
3)国产底层软硬件的深度重构
单纯买卡受阻,中国AI企业将被迫走上“软硬一体协同”的绝路与生路。正如智谱、DeepSeek等正在做的,深入底层将多模态模型的算子直接与国产芯片(如华为昇腾等)进行闭门深度的指令集级优化[4][7],摆脱对CUDA生态的绝对路径依赖,这才是缓解算力瓶颈的最深层底牌。
综上所述,Seedance 2.0 挤兑事件是全球AI产业的一个缩影——人类的想象力与大模型的智力已经跨越了奇点,但承载这股力量的硅基算力与能源底座正在发出不堪重负的悲鸣。接下来的5年,最伟大的AI公司不仅要有最聪明的算法,更是全球最高效的“算力与能源调度大师”。
Seedance2.0从“地表最强”变“排队最长”,记者实测:基础会员要排10小时
新闻网址:https://www.toutiao.com/article/7612225330241208867/?app=news_article&category_new=__search__&module_name=Android_tt_others&share_did=MS4wLjACAAAAETnIxFAPk4AoH-QOACowtyB1ENA8thU1sDtQda6I2DsrTX3n_3d9XcFqhi3HKVTf&share_uid=MS4wLjABAAAAGU7U5HhiNCNhKKSRTeS9WkwifNYw3ln_kxe_bRbNfrI×tamp=1772383012&tt_from=wechat&upstream_biz=Android_wechat&utm_campaign=client_share&utm_medium=toutiao_android&utm_source=wechat&share_token=6b3f19ea-27f5-4cb6-9f40-f940d126deb6&source=m_redirect
每经记者:李宇彤 每经编辑:董兴生
马年央视春晚上,十二花神的飘逸身姿与奔腾的水墨骏马,成为Seedance2.0最高光的一次“亮剑”。
这场惊艳亮相不仅为背后的“即梦”平台(字节跳动旗下AI创作平台)带来耀眼的技术光环,更让业界和普通用户对其“飞入寻常百姓家”充满期待。然而,盛宴的余温尚未散去,现实的考验便已接踵而至,让满怀期待的用户始料未及。
2月26日,“Seedance2.0排队”词条登上热搜。大量用户发现,要想体验这一前沿技术,必须先面对排在前面数以万计的用户和数小时的排队时间。排到后还要经过人脸素材的审核,若审核失败,此前的一切等待又需重来。
2月27日下午,《每日经济新闻》记者(以下简称“每经记者”)在高峰时段以基础会员身份实测发现,排队人数平均保持在9万左右。在排队7小时后,仍显示预计还需3小时才能完成生成任务。不少即梦年费会员都反映,即便付了真金白银购买会员权益,依然被卡在漫长的等待队列中。
一边是被行业奉上神坛的全球顶尖多模态大模型,一边是连核心付费用户都无法保障的使用体验。这场服务器“挤爆”事件,抛出了一个当下全行业都无法回避的问题:当顶尖AI技术冲向商用落地的深水区,算力将如何保障?
实测:排队7小时还没到,从“地表最强”变“排队最长”
Seedance 2.0问世之初,其卓越的能力在全球视频领域引发强烈震荡。
据官方披露的测试结果,该模型在VideoBench、VBench等国际权威多模态视频生成评测中,多项核心指标登顶全球第一。游戏科学创始人、《黑神话:悟空》制作人冯骥在深度体验后给出了“地表最强,没有之一”的评价。
然而,正是这款备受追捧的明星模型,在春节返工后遭遇了始料未及的需求洪峰。“Seedance2.0排队”登上热搜的同一天(2月26日),即梦App客服中心页面提醒:“由于当前使用人数较多,任务需要排队生成,生成排队及客服服务繁忙,请耐心等待。”
据公开报道,即梦App客服人员还表示,春节返工后,目前Seedance2.0模型使用的人非常多,是非常火爆的状态。视频生成需要消耗算力和资源,会有排队时间长、视频生成慢的现象。后续也会不断优化模型的使用,“很抱歉带来不好的体验”。
2月27日下午4点半,在使用高峰期,每经记者对即梦平台的视频生成服务进行了实测:以基础会员身份提交视频生成需求后,初始排队状态为总排队人数约7.1万人,记者排在第4.6万位,生成页面同时提示:“会员加速已生效,高级会员享最快加速。”
但记者发现,在提交需求后排队总人数持续攀升,自身排队位次并未随时间推进前移,反而出现了后退。提交需求半小时后,总排队人数升至8.4万人,记者位次后退至第5.5万位。提交两小时后,总排队人数突破10万人,记者位次进一步后退至第5.9万位。
提交需求后约7个小时,2月27日23时30分,记者排在第3.5万位,页面显示预计剩余3个小时,排队总人数仍超过10万。
即梦平台会员中心页面显示,平台会员分为三档,连续包月价格分别为:基础会员69元/月、标准会员199元/月、高级会员499元/月。从测试和对会员权益的介绍来看,会员用户在生成排队时,优先级高于免费用户,会员等级越高,排队加速权益越优,即可以“插队”等待完成任务。
此外,每经记者注意到,有用户反映生成进度卡在99%是在进行人脸素材审核,当前审核严格,需要经过前后三次审核。此前,即梦客服曾提醒,上传图片素材或文字关键词若涉及版权风险,会有审核不通过的情况,用户可转换描述词或更改图片后再进行审核。对此,每经记者就排队原因和审核问题向字节跳动方面了解情况,但截至发稿未收到回复。
对非商用的尝鲜用户而言,数小时的生成等待或许尚可接受,但对于将AI工具作为生产资料的职业用户与商业团队,稳定、可控、可预期的使用体验是其作为生产力工具的核心前提。当Seedance 2.0作为生产力工具时,当前的排队现象对企业用户造成了哪些影响?
每经记者在采访中手游内部人士时了解到,公司在2月26日前后测试发现,高峰期基础会员用户排队6—8小时是常态,即便开通499元/月的高级会员,也常需等待3小时以上。而对比每经记者实测情况可以发现,短短几天内,同样是基础会员,排队时长还在增加。
不仅如此,上述人士还表示,任务队列还存在明显的不稳定性,不仅会出现预估等待时间大幅跳涨的情况(如从25分钟跳至7.5小时),还频繁出现任务长时间无响应的中断问题。
至于官方推出的可快速生成的Fast版,虽然能够秒出,但因为模型精简,使其生成的素材可用性极低,无法达到买量投放的质量需求。
对商业化生产而言,这种不可控的等待与中断直接影响生产节奏。
“对于买量视频的紧急迭代需求,它(Seedance 2.0)目前确实无法当作稳定的生产力工具;仅对于长线素材储备与创意探索,仍有一定的使用价值。”上述中手游人士直言。在他看来,商业买量素材的核心竞争力在于快速迭代与A/B测试,长达数小时的等待会直接导致当日投放计划无法落地,不仅推高了试错成本,也打乱了既定的生产流程,团队最终不得不将部分工作重新转回传统制作流程。
AI狂飙,算力大考:Seedance 2.0排队是国产AI商业化必经一课
本次Seedance 2.0排队事件,并非单一产品的运营问题,其背后反映出国内AI行业在技术快速迭代、商用需求集中爆发阶段的共性挑战。
当前,国内AI模型调用量正处于爆发式增长阶段。此前,每经记者梳理全球最大AI模型API聚合平台OpenRouter数据发现,2026年2月中国AI模型调用量迎来历史性突破。
2月9日—15日当周,中国模型以4.12万亿Token周调用量首次超越同期美国模型的2.94万亿Token。2月16日—22日当周,中国模型周调用量进一步升至5.16万亿Token,三周内增长127%,同期美国模型周调用量回落至2.7万亿Token。
而排队现象与国内AI模型调用量的爆发有一个相同的核心,那就是随着AI有能力扮演“生产力工具”角色,编程、3D建模、视频生产等复杂的使用场景和AI Agent技术的普及,使得Token的消耗量大大提升。
快思慢想研究院院长田丰在接受每经记者采访时表示,相比纯文本推理,视频生成的多模态推理算力需求随用户访问量呈指数级放大,二者完全不在一个数量级。文本生成边际成本极低,而生成一条15秒高清视频,需要云端完成成千上万次去噪测算,Seedance 2.0支持的音画同步、多镜头叙事进一步增加了计算量,高分辨率多模态模型单条算力消耗是普通单模态语言模型的数十倍。
在田丰看来,本次Seedance 2.0排队事件,暴露的是国内大模型商业化进程中的“结构性供需矛盾”。
“2026年美国Claude Code爆款产品已形成‘大算力-大营收’的良性商业闭环,而国内用户付费意愿与付费水平远低于海外,只要高质量视频生成的单位算力成本无法下降到用户可接受价格的平衡点之下,这类排队与限流现象就将长期存在。”
但他同时认为,这既是国产AI推理芯片崛起的良机,也是AI应用行业从“炫技”走向“实用”的必经之路。
算力焦虑如何破解:扩大算力基建之外,还需提高利用效率
算力供需矛盾也倒逼国内AI芯片产业进入加速爆发期。
今年1月29日,阿里平头哥正式发布自研高端AI芯片“真武810E”,该芯片采用自研并行计算架构,整体性能超越英伟达A800及主流国产GPU,与英伟达H20处于同等水平,已在阿里云完成多个万卡级集群部署,大规模用于通义千问大模型的训练与推理。
2月中旬,关于字节跳动布局AI芯片的各类消息也在市场中传播。每经记者通过查询招聘软件发现,字节跳动也挂出“AI芯片系统软件架构师/工程师-NPU”“网络方向—芯片验证工程师”等招聘岗位。
在田丰看来,要让这类多模态AI工具成为Adobe、Office级的生产力标配,必须从三大核心维度优化破局。
一是重构算力SLA(服务等级协议)服务体系,废除“大锅饭订阅”,引入算力分级调度体系,参考类似云计算(AWS EC2)建立SLA分级收费模式,将算力划分为企业级极速池、付费会员标准池、免费/低价闲时池,为企业用户预留专属算力,保障服务稳定性。
二是优化节约算力的商业化设计,建立“草稿与渲染”分级生成机制,以低算力快速生成草图、确认后再做高清终渲。同时推出阶梯定价,企业端采购保底并发算力,C端可使用闲时竞价算力,减少无效算力消耗。
三是推动审核机制提效,将审核从“人力后置拦截”转向“前置确权与潜空间打标”,通过提示词前置拦截、端到端水印溯源、人机协同审核三大机制,把违规拦截嵌入生成全流程,规避合规风险的同时,避免算力无效浪费。
每经记者利用Seedance2.0生成的视频截图
算力瓶颈并非短期阵痛,而将是AI时代与之长期共存的系统性命题。随着多模态技术一路狂奔,模型能力已一路从文本生成进化至复杂的多模态交互,而未来长视频、3D内容生成等高算力消耗场景还将持续扩容。技术的每一次进阶,都在为算力需求不断加码,行业供需之间的矛盾势必将随之长期加剧。
除扩大算力基建外,田丰还提出四个核心路径,从根源缓解行业算力供需矛盾。
首先是推动端侧推理崛起,利用PC、手机终端算力承接短视频特效、初步分镜等轻量级任务,仅将高难度渲染任务上云,形成“云侧-端侧”算力转移,可分流30%~50%的云端压力。其次,推进算法范式革新,从纯Diffusion模型转向混合架构,大幅压缩采样步数,力争在不牺牲生成质量的前提下将推理速度提升10倍以上。
此外,打造缓存与复用经济,建立全局元素缓存库,调用预渲染的常见镜头、光影等片段重组生成,避免重复算力消耗。最终,通过重构商业模式,从按生成次数计费转向按最终采纳结果或商业价值分成,减少无效算力浪费,与用户形成利益共同体。
书名:《AI商业进化论:“人工智能+”赋能新质生产力发展》
出版社:人民邮电出版社
作者:田丰
帮助你定位AI当下发展坐标的指南针
帮助你洞察AI未来演进趋势的航海图
通俗化解读AI的原理、特性和四大发展规律、提供AI赋能商业、引发新质生产力变革的一手案例分析。既有宏观视角的全局观照,又有各行业应用层面的下探记录,聚焦AI的原理与实践、现在与未来,是当下AI应用的全景图、更是身处AI技术浪潮之中的探路书。
热门跟贴