“在大模型上重兵投入的火山引擎,或许有了一次更新自己在云牌桌上排名的机会。”
作者 | 胡敏
编辑 | 周蕾
“原来我并不看好火山引擎,但现在有些改观了。”在云行业已经干了8年的张坤表示。
大模型大战两年后,雷峰网再次和许多从业者聊起火山引擎这位“后进生”时,一些人对火山引擎的看法有了很大变化。
01
云牌桌上的后来者
火山引擎在2021年12月正式宣布开始参与云计算市场的竞争。与其他几家云厂商相比,这个入局时间显得有些姗姗来迟。
回顾其他几家云厂商,阿里云属于最早迈出步子的人,2009年成立阿里云,并开始自主研发大规模分布式计算操作系统“飞天”。
而腾讯云是2013年3月正式上线运营,2018年930之后,腾讯成立CSIG,转型产业互联网。
华为云在集团中的地位经历了多次调整和提升。最初,华为云作为二级部门存在,但在短短半年内迅速提升为一级部门,战略地位仅次于华为的三大BG(运营商BG、企业BG和消费者BG),后来又重回集团业务体系。
到2021年底,火山引擎入局时,云市场已经呈现四强竞争格局,以阿里云为首,占据国内四成云服务市场规模,其次是华为云、腾讯云与百度智能云。火山引擎作为后来者,想要在这个市场上争得一席之地,有一场相当难的攻坚战要打。
当年,以Ucloud、青云为代表的独立云厂商即便占据先发优势,但在这四家云厂商进入云市场后,开始以投入10-20倍的人力,不计成本、不计收益的快速占领市场,后来独立云厂商不得不退出了舞台中央,站在独立云厂商的视角来看,这个故事的确听起来相当悲伤,但这也暗含了云市场厮杀的激烈程度。
半年以前,雷峰网曾与数十名云从业者交流过火山引擎能否走出不同的命运轨迹,逆袭进入云行业前三甲时,其大多给出的回答:很难,入局太晚了。
面对强劲的对手,火山引擎如何撬开云计算市场?雷峰网认为,核心策略之一就是价格。这种策略在云市场上掀起了不小的波澜,火山引擎接连拿下了不少的泛互、游戏、消费电子等行业客户,取得了高速增长。据业内人士透露,今年火山引擎的营收目标是要前一年基础上翻倍。
火山引擎这种发展态势,也让其成为了目前云市场里唯一一家还在大规模招聘的公司。“其他几家云厂商这几年招聘需求缩减了至少30%,而火山引擎不仅招聘岗位多,而且给略有涨幅的薪资待遇。”猎头刘赟表示。
不过,这种高速增长繁荣并未掩盖住担忧,不少从业者认为,短期内,火山引擎在有资源时,自然可以大力投入,但低价弹药并非无穷尽,长期还是需要靠产品驱动,而目前,火山引擎在产品上还很难追赶上友商。
不过,这是半年前大多数人的论断,近半年,一些业内人对火山引擎的评价又发生了一些变化,认为,这一波大模型正在给了火山引擎一个极佳机会,提升产品竞争力,同时也给了火山引擎销售,拉开一个新的突破口。
02
AI infra,云厂商们站在了同一起跑线上
为何说大模型正在让火山引擎赶超老牌云厂商?
核心原因是,随着大模型训练推理需求的不断增多,客户在云底座的选用上,除了关注以往云的基础能力外,还会进一步关心在AI infra方面的能力。而在AI infra上,所有云厂商都在同一起跑线,并且火山引擎的迭代速度几乎是厂商里面最快的。
前不久,火山引擎Force冬季大会上新升级了以GPU为中心的AI infra分布式业务体系,通过 vRDMA 网络支持大规模并行计算及 P/D 分离推理架构,提升训练和推理效率,降低企业使用成本;EIC 弹性极速缓存解决方案,实现 GPU 直连,使大模型推理时延降低至五十分之一,成本降低 20%。
火山引擎在AI infra上能快速迭代的原因,这要追溯到2021年火山引擎制定的产品战略。
“从2021年起,我们就确立了两手抓的产品思路,一边抓存量,一边做增量。”火山引擎云基础产品负责人罗浩表示。
火山引擎云基础产品负责人罗浩
罗浩所言的存量是指传统云计算的需求,包括ECS、存储、数据库、网络、安全等一些云基础产品。不可否认,作为后来者,火山引擎在这些基础云产品上与其他厂商还存在差距,所以罗浩认为,在这一块他们的核心就是要快速补齐短板。
不过,光是补齐短板远远不够,如何能在产品上有所差异,才是赢得市场竞争的关键。而随着生成式AI浪潮的到来,火山引擎随即决定要从算力上做突围,也就是罗浩所说的增量,来服务比如两年前爆发的训练需求,今天大规模的推理需求。
“早在2021年,我们就开始大规模投入AI和GPU了。”
这一战略判断,从过去一年火山引擎在AI infra上的销售表现,已经可以验证正确性,大模型公司几乎都是火山引擎AI infra 的采购者。
如果说4年前“两手抓”的产品战略是火山引擎在AI infra上实现追赶的根基,那过去几年的内外部实践则是AI infra迭代的关键驱动力,所有产品稳定性和能力往往是在一次次业务场景中淬炼重生。
在这些实践中,让火山引擎AI infra加速狂奔的是豆包大模型。前不久,火山引擎总裁谭待在火山引擎Force冬季大会上公布了一个数据,2024年豆包的日均token数据从5月15日的1200亿,到12月18日增长到了4万亿。
要承载33倍的增长,这几乎其他厂商都没有遇到过的,背后对于底层AI infra 的性能、成本几乎是一次大考。
罗浩谈到,今年5月份之前,那时豆包体量还小,为了让豆包大模型能够良好地运行,他们通过增加更多的GPU资源来保证大模型能够快速响应大量的查询请求,以提升客户的使用体验。
但他们很快发现,“堆量”这种方法行不通了,随着用户量的增加,继续这样做成本就变得难以承受。
优化推理成本迫在眉睫,他们团队开始大量分析哪些地方是“成本暴发户”,经过他们仔细的计算发现,缓存和存储部分是拉高计算成本的重要部分。
“传统的缓存技术有一个问题,就是它处理数据时会绕一大圈,通过CPU再到内存,这会导致延时增加,性能下降。”罗浩说。
为解决这个问题,他们决定重写整个缓存系统。新的系统完全围绕GPU展开,不再依赖传统的CPU架构。这意味着,数据可以通过一种更高效的方式直接从GPU传输到远端内存,使用一种叫做GDR,GPU Direct RDMA(GPU直接远程内存访问)技术,这样不仅减少了延时,还提升了整体性能。
这个数据传递过程就像是送信,原来需要通过邮局,既慢又容易出错。而现在,系统就像给数据装上了直通车,直接从一个人手中快速送到另一个人,省去了中间环节,速度更快,准确性更高。
“这些内外部业务,对我们的意义就是,让我们比别人早踩坑,也早发现问题,早解决。”
今年5月火山引擎Force春季大会上,豆包主力模型在企业市场的定价比行业价格降低了99.3%,“这个降价99.3%并非是我们拍脑袋想的,而是建构在之前对AI infra的优化上算出来的。”
罗浩表示,计算范式当前正在从云原生进入“AI云原生”的新时代,火山引擎以GPU为中心重新优化计算、存储与网络架构。GPU可以直接访问存储和数据库,来显著降低IO的延迟。同时,整个系统提供高速互联和端到端的安全保护。
这是国内首次有云厂商喊出“AI云原生”的理念。如今,新架构仍在支持着豆包大模型实现快速的指数级业务增长。
除有豆包大模型“倒逼”外,火山引擎AI infra能够在较短时间内升级,也与火山引擎独特的组织架构有关。
国内其他几家云厂商的产研团队基本是和集团业务是分开的,但火山引擎并不是,做火山引擎的这一批人马,就是来自字节中台,像罗浩本人,就有两个身份,一个是火山引擎云基础产品负责人,另一个是字节跳动基础架构云产品负责人,而吴迪也同样如此,他第一个身份是火山引擎的算法负责人,另一个也是字节机器学习中台的一位负责人。
这种组织的好处有两个:第一火山资源和字节的资源都在一个人手上管理,这样也能实现资源的充分利用;第二是人才能力上的复用。
03
为商业化撕开了新突破口
大模型到来,除缩小火山引擎与其他厂商产品之间的差距外,其带来更明显的效果就是,为火山引擎商业化带来了一个新的突破口。
上文也提到,作为后进生的火山引擎进入云市场时,面临很大的一个问题就是如何打开市场,过去火山引擎用了一些价格策略的确也取得了一些成果,但这终究不是长久之计。
而这一波大模型,对于火山引擎来说,其最重要的就是手上多了一张撬动客户的“王牌”——豆包大模型。
一名火山引擎销售曾对雷峰网说过他的销售经历:以前经常找拜访客户由头通常要绞尽脑汁,而且由于火山引擎在云市场是后来者,一些客户往往会提出灵魂拷问,为什么选你?但自从大模型出现后,越来越多的客户有了大模型训练需求,一些客户还会主动找上来问,如何去搭建自己的大模型。
趁着大模型这一波热度,火山引擎在加速推进商业化,据资深猎头王帆透露,今年年中,火山引擎单独成立了一个10人不到的大模型商业化小组,这也是云厂商中唯一一家单独成立大模型销售团队的,其他云厂商的大模型销售人马仍然是卖云的销售、渠道。
云销售卖大模型有一个问题是在于,技术有壁垒,一般的云销售不一定有能力跟客户讲清楚大模型的价值、技术,而火山引擎也在寄希望于通过豆包大模型,打入更多已经跟友商合作的客户中去,而这也是这个小组成立的重要原因。
过去一年,可以看到火山引擎借助大模型在商业化的突破,据了解,目前豆包大模型已经应用到了汽车、手机、金融、消费、互娱等30多个行业,尤为值得一提的是汽车行业,火山引擎的确拿下了不少的汽车大单。
早在去年,火山引擎先后与吉利、长城、蔚来、广汽等多家车企达成深度合作,为车企提供了数字化营销、智能座舱、车载聚合音视频内容等一系列服务。
今年5月,火山引擎成立了汽车大模型生态联盟,一汽红旗、东风乘用车、吉利汽车、长城汽车、广汽乘用车、宇通客车在内的24家整车厂、官方机构、出行生态公司等加入其中。下半年,火山引擎在汽车领域有一个重要的突破客户,那就是奔驰。8月13日,火山引擎与奔驰签署战略合作备忘录,双方宣布将在大模型、生成式人工智能和大数据技术领域展开合作。
不过,也有很多人会有疑问,卖大模型是否能为火山引擎增收,毕竟眼下,OpenAI和Gemini都在不断降价。今年5月豆包在国内率先掀起大模型的降级潮,豆包主力模型在企业市场的定价为0.0008元/千Tokens,随即几个月其他厂商也迅速跟进,而12月底,火山引擎再次将视觉模型价格打下来,定价为0.003元/千Tokens。
火山引擎总裁谭待公开表示,豆包大模型的定价一步到位,有合理毛利。不过,所有厂商目前大模型API收入规模都不大。结合雷峰网调研发现,月消费1万,相当于公有云消费1000万的客户体量,是很大客户了。
的确,眼下大模型带来的收益远远小于投入,不过大模型的生意还要是要拉长时间维度来看,大模型应用规模上去之后,一定会带动云的用量,据IDC报告,未来5年国内的训练、推理算力分别以超50%、190%的年复合增速发展,并在2028年推理算力会超过训练算力。而到那个时候,率先在大模型上重兵投入的火山引擎,兴许也更新了自己在云牌桌上的排名。
BAT云销售,涌入火山引擎
火山引擎To B,一场字节数据技术经验的复刻之旅
多云时代到来,火山引擎「弯道超车」进行时
热门跟贴