你打开千问App,输入一段提示词,等待15秒。视频出来了——能看,能用,但也就是能看能用。这就是4月27日灰测的HappyHorse,阿里ATH事业群成立后的首款视频模型。预热时它曾匿名登顶盲测榜,吊足胃口;真身亮相后,从业者集体沉默。
盲测登顶,认领后哑火
HappyHorse的出道剧本本该更刺激。
4月初,一个未标注厂商的视频模型突然霸榜Artificial Analysis AI Video Arena。这个以盲测为核心的权威平台,用Elo分数(通过比赛输赢和对手强弱动态计算排名的机制)衡量模型实力。该模型以更高分数压过字节Seedance 2.0、快手可灵AI、Google Veo 3 Fast,直接引爆猜测。
假官网迅速冒头,蹭流量的人蜂拥而至。三天后,4月10日,阿里ATH创新事业部正式认领——原来"黑马"是自家马。
ATH事业群本身就很新。3月才由阿里CEO吴泳铭成立并亲自挂帅,整合通义实验室、MaaS业务线、千问事业部、悟空事业部及AI创新事业部五大板块。官方说法是,ATH创新事业部已启动AI时代全新交互方式探索计划,HappyHorse只是这个方向的一部分,更多产品会陆续推出。
但认领热度没能延续到灰测当天。
4月27日开放测试后,社交平台上鲜有惊艳案例流传。有从业者调侃:马年春节期间即梦App把图标从陀螺改成小马,如今被解读为"拿捏小马"——不是祝福,是预判。
150亿参数,缝补而非突破
HappyHorse的纸面参数并不弱。
150亿参数,几乎是Seedance的三倍。支持15秒多镜头叙事、多画幅适配、1080P超分输出。一键生成有分镜、音画同步的15秒视频,这些能力三个月前足以让影视行业重组生产流程。
问题是,现在已经是标配。
Seedance 2.0、可灵3.0同样能做到。HappyHorse的能力图谱与它们高度重合,没有独一档的杀手锏。
三生清影创始人姜奕祺的测评更具体。他的工具Glowave已接入HappyHorse,本人清华计算机视觉背景,曾在阿里达摩院任职。他向36氪表示:HappyHorse表现不错,但略逊于Seedance 2.0。
差距体现在两个维度。
一是"影视感"——画面的精细度、背景的丰富度、接近传统专业影视的表现效果。二是"提示词还原",即听懂人话的能力。
36氪用同样提示词、清晰度、时长测试了Seedance 2.0、可灵3.0、HappyHorse。姜奕祺观看可灵3.0和HappyHorse的输出后,认为前者审美逊色,但关键词还原和物理真实性上HappyHorse更胜一筹。他给可灵3.0打8分,HappyHorse打9分。
但Seedance 2.0的测评视频截至发稿仍未生成成功——36氪仍需排队十小时。这本身就是竞争力的注脚。
姜奕祺补充:"HappyHorse 1.0毕竟是1.0,起步已经很好。可灵3.0近期表现下降,可能是将算力用在憋大招上。"
参数三倍,表现未跟上。姜奕祺分析可能与数据质量有关——HappyHorse在短视频数据和影视级视频数据上,与字节、快手都存在差距。
行业阈值:每1-2个月必须更新
视频生成大模型的竞争已进入焦灼同质化阶段。
一位头部视频模型厂商员工向36氪转述其老板的判断:衡量大模型能力的核心标准是"智能",即迭代是否改变产业生产结构。Seedance 2.0的出现让分镜师岗位变得不必要,这就是改变。
HappyHorse没有这种颠覆性。它更像在现有能力基础上缝缝补补,差强人意远远不够。
速度是另一道生死线。行业默认每1-2个月必须更新一版大模型,否则就可能掉队。平庸意味着出局。
可灵3.0前不久更新,支持直出4K视频。这与AI视频行业迈向大荧幕的方向一致,新竞争已经拉开序幕。HappyHorse才刚刚登场。
热门跟贴