来源:市场资讯

(来源:invest wallstreet)

面向大型AI、数据中心、园区及路由环境的“数据驱动、从客户端到云端”网络行业领军企业Arista Networks(ANET.US)今日公布了截至2026年3月31日第一季度财务业绩。

打开网易新闻 查看精彩图片

公司第一季度营收达27.09亿美元,环比增长8.9%,同比大幅增长35.1%,超出市场平均预期的26.2亿美元。GAAP口径稀释每股收益为0.80美元,非GAAP口径为0.87美元,超出市场平均预期,去年同期分别为0.64美元和0.661美元。

该公司公布的调整后营业利润率为47.8%,高于此前46.4%的预期。然而,其调整后毛利率为62.4%,略低于市场普遍预期的62.7%。

Arista董事会主席兼首席执行官Jayshree Ullal表示:“Arista在2026年开局强劲,业绩和行业领先的净推荐值(NPS)均表现出色。我们独特地把握住了从安全的客户端到园区再到云以及AI网络这一关键融合机遇。”

Arista首席财务官Chantelle Breithaupt评论道:“我们为2026财年的强劲开局感到自豪。尽管宏观和供应链环境依然充满变数,但我们的业绩证明了团队严谨的执行力。在实现35%营收增长的同时,非GAAP每股收益达到0.87美元,这表明我们既能推动高质量增长,又能严格聚焦利润底线。”

公司动态亮点方面,该季度内,公司发布XPO高密度液冷可插拔光模块:面向下一代AI数据中心设计,与传统可插拔光模块相比,XPO可减少最多75%的网络机架,节省44%的占地面积,支持更短的铜缆和射频(RF)等低功耗AI横向扩展互连技术。

2026年NPS得分高达89。更新后的净推荐值显示,94%的客户对公司持非常积极态度。这一行业领先指标彰显了公司推动客户成功与满意的专注。

此外,公司以AI Spine赋能AI中心。Arista推出基于7800芯片的通用AI Spine,提供大规模扩展、可预测性能及高速接口支持。虚拟输出队列(VOQ)等强大功能消除了队头阻塞,大缓冲区可吸收AI微突发流量并防止PFC风暴。

财务展望方面,针对2026年第二季度,公司预期营收约28亿美元;非GAAP营业利润率介于46%至47%之间;非GAAP稀释每股收益约0.88美元。

2026年第一季度财报电话会议全文

Company Participants

Rudolph Araujo - 投资者权益倡导负责人

Jayshree Ullal - 首席执行官兼董事长

Kenneth Duda - 联合创始人、总裁、首席技术官兼董事

Todd Nightingale - 总裁兼首席运营官

Chantelle Breithaupt - 高级副总裁兼首席财务官

Operator

欢迎参加 Arista Networks 2026 年第一季度财务业绩电话会议。[操作员指示]

提醒一下,本次电话会议正在录音,并将在会议结束后可通过 Arista 网站的投资者关系栏目回放。Arista 投资者倡导负责人 Rudolph Araujo 先生,请开始。

Rudolph Araujo投资者倡导负责人

谢谢你,Regina。大家下午好,感谢各位参加今天的电话会议。今天和我一起出席的有 Jayshree Ullal,Arista Networks 董事长兼首席执行官;以及 Chantelle Breithaupt,Arista 的首席财务官。今天下午,Arista Networks 发布了新闻稿,公布了截至 2026 年 3 月 31 日的 2026 财年第一季度业绩。如果您想获取这份新闻稿,可以在我们的网站上找到。

在本次电话会议期间,Arista Networks管理层将作出前瞻性陈述,包括与我们2026财年第二季度财务展望、2026年及以后更长期业务模式和财务展望、我们的总体可寻址市场以及应对这些市场机会的战略相关的陈述,其中包括AI库存管理、交货周期和产品创新。这些陈述受到我们在向SEC提交的文件中详细讨论的风险和不确定性影响,特别是在我们最近的Form 10-Q和Form 10-K中,这些风险和不确定性可能导致实际结果与这些陈述所预期的结果存在重大差异。

这些前瞻性陈述以今天为准,您不应将其视为我们未来观点的代表。我们没有义务在本次电话会议后更新这些陈述。我们对Q1业绩的分析以及对Q2 2026的指引基于non-GAAP口径,不包括股权激励费用、无形资产摊销、战略投资的收益和损失,以及这些non-GAAP调整项的所得税影响,包括确认与股权奖励相关的直接超额税收利益。我们选定的GAAP与non-GAAP结果的完整对账已在我们的财报新闻稿中提供。

接下来,我把电话交给 Jayshree。

Jayshree Ullal首席执行官兼董事长

谢谢你,Rudy,欢迎大家参加我们2026年第一季度财报电话会议。Arista在第一季度的各个业务领域都实现了显著增长,如今在10千兆以太网以上类别的高速交换领域占据市场份额第一。凭借这一表现,按照主要市场分析机构的数据,到了2025年,我们已经超越了许多现有供应商。我们面向多样化AI加速器的云和AI网络战略持续获得市场认可。

与典型工作负载不同,AI 工作流模式可能是长生命周期的“大象流”,也可能是短生命周期的流,且并不可预测。这意味着需要特别关注性能,因为一个流可能在毫秒级的较长时间内引发突发流量。流的强度会决定链路带宽吞吐量;流量模式向大规模流量的转变、同步式的 all-in-all 或 all-reduce 以及伴随集体通信的突发流量,对 AI 训练和推理应用都非常重要。

我想花一点时间回顾一下我们的 3 个 AI fabric 用例。在 scale-up 模式下,我们有熟悉的技术,例如 NVLink 和 PCIe,它们已经实现了单个计算节点或机架的纵向扩展。ESUN(Ethernet for Scale-Up Networking)规范的出现,使得能够通过 Ethernet 以灵活的方式增加或减少计算能力,从而自动适应工作负载需求。Scale-Up 将是 Arista 在 2027 年及以后进入的一个新领域,在那里我们将与客户紧密合作,构建配备非常高速互连的 AI 机架,用于 co-packaged copper(CPC)或 open co-packaged optics(CPO),并支持 collective 和内存加速。

扩展规模或横向扩展涉及向 leaf-spine fabric 中添加更多机器,将工作负载分布到多个服务器或节点,甚至连接存储或 CPU 等其他元素。随着你在处理海量数据集时进行横向扩展,瓶颈可以通过在 L2、L3 上进行集体通信和协议加速、集群负载均衡来解决,而且都能达到线速。随着更多节点参与,系统必须在性能上保持一致,不能出现退化。Arista 是这里的一个典型例子:截至目前,在 800 gigabit Ethernet 部署中,累计客户已超过 100 家,我们预计到 2027 年将在量产规模下增加 1.6 terabit。

横向扩展——推动云和 AI 的横向扩展,因为某一地点的 AI 加速器可能需要分布式部署,才能以最优功耗实现合适的带宽容量。随着工作负载变得更加复杂和分布式,双向切分带宽必须平稳扩展,以避免瓶颈并保持性能。这需要复杂的流量工程、深度路由、加密特性,以及基于 Arista EOS 栈的集成光学方案,并采用 Arista 旗舰 7800R3 或 R4 系列。7800 已在这一类别中确立了其作为首选横向扩展方案的地位。

你可以看到,借助 Arista 的加速网络战略以及这 3 类 AI fabric,这些对于部署多样化加速器和前沿模型至关重要。传统的静态网络拓扑会出现热点和抖动,从而拖慢任务完成时间,或增加推理的首 token 时间,这些都不是正确的方向。在这个万亿级 token、太比特级性能和太瓦级功耗的时代,Arista 的 Ethernet 产品组合同时满足大规模训练所需的同步流量,以及面向实时推理并发群集所需的低延迟。

2024年,您可能还记得,我们讨论了4个基于Ethernet的AI训练部署。当然,自那以后,我们已经扩展并爆发式增长到无数其他项目。这个集团中的第四位客户在过去2年里已正式从InfiniBand转向Ethernet,并在生产规模上完成了迁移。具备灵活风冷或液冷基础设施的高速Ethernet AI Leaf-Spine架构,克服了AI工作负载在电力和空间方面的物理限制。它在全球各区域之间形成了一个低延迟的分布式AI超级计算机网络。

对我和我们来说,清楚的是,我们在数据、控制和管理以及多平面编排方面的网络进展,不仅对我们的 AI 搜索性能至关重要,而且对高速光学传输也很重要。在最近的 Optical Fiber Conference 上,Arista 发布了其扩展型可插拔光学器件 XPO 外形规格,专为高速光学创新而设计。

目前已获得超过100家供应商的支持,其显著特性包括创纪录的吞吐量,每个可插拔模块可实现12.8太比特、前所未有的机架密度,每个OCP机架单元可达到204.8太比特、集成冷板可为每个模块散热高达400瓦,以及在多种可插拔光学器件、铜缆以及线性半程或重定时接口之间具备通用性和灵活性。

特别要感谢 Andy Bechtolsheim,Arista 的首席架构师,他在过去 10 年里推动了从 OSFP 到这一代 XPO 的演进,在功耗、占用空间和成本降低方面带来了结构性改进。我们在 2026 财年第一季度的企业业务表现强劲,数据中心和园区业务均取得了良好成绩。我们对 VeloCloud 的收购也与我们的分支和园区战略很好地融合在一起,带来了更多分布式企业应用场景,以及与托管服务提供商(MSP)合作的新销售模式。

为了分享一些近期的成果,现在让我们听听我们的联席总裁 Todd Nightingale 和 Ken Duda 的发言,他们将阐述我们的 Arista 2.0 数据中心战略。请开始。

Kenneth Duda联合创始人、总裁、首席技术官兼董事

谢谢你,Jayshree。Arista 正在通过新客户的获取来实现这项业务的多元化,这些客户覆盖了广泛的用例,并且都由 Arista 的 EOS 技术栈以及其现代化企业基础设施运营模式的能力统一起来。我们重点介绍的首个赢单是一个 neocloud AI 网络。该客户受到现有白盒架构的限制,而这种架构根本无法跟上 AI 对大规模横向扩展的需求。

Arista被选为一种经过商业验证且可靠的横向扩展架构,具备无与伦比的EOS稳定性,并且能够连接AMD MI系列XPU。Arista的AI leaf和spine EtherLink产品以800千兆比特部署,提供现代AI网络所需的惊人性能。该AI fabric通过Arista的集群负载均衡进行了调优,以横向扩展数千个XPU,最大限度地减少热点和拥塞。

在软件方面,客户利用了 AVD,即 Arista 的验证设计框架,来自动化网络配置,这既降低了总体拥有成本,也为大规模、可靠的网络部署提供了一条便捷路径;如果没有 AVD 自动化,一个小错误就可能导致宝贵的数天调试时间。这是一项具有战略意义的 neo-cloud 胜利,在我们看到 neo-cloud 和 sovereign cloud 客户都展现出巨大机遇和增长速度的领域,具备很大的上行增长潜力。

我们的下一个胜利来自服务提供商领域,一家领先的区域性光纤入户(fiber-to-the-home)提供商,服务着数十万用户。随着用户带宽需求激增,这家客户意识到其传统路由架构过于僵化、过于脆弱,而且扩展成本过高。他们需要一个能够现代化其下一代骨干网和互联网对等边缘的解决方案。Arista 通过证明一种以自动化为先的方法和现代运营模式赢得了这次升级,从而带来了运营节省并提升了用户可靠性。

在硬件方面,我们部署了流行的 7280 路由平台,采用了 EOS 的 FLX 功能,这一功能可实现深度缓存、丰富的控制平面软件栈以及完整的互联网路由规模支持。在软件方面,Arista 的 AVD 框架再次实现了路由器配置自动化,缩短服务开通时间,同时减少错误。在这里,我们与 Palo Alto Networks 的技术合作取得了很好的成果,确保路由边缘能够与我们的整体安全架构安全且无缝地集成。在这里,Arista 以更低的运营成本和更高的可靠性为核心价值主张,赢得了这场竞争。

现在我把它交给 Todd。

Todd Nightingale 总裁兼首席运营官

谢谢你,Ken。我们的第三个胜利来自保险服务领域。经过一年的战略合作,客户希望通过一个精简、自动化的基础架构来实现其基础设施现代化,并能够提供细粒度的实时洞察,以保障和监控关键应用。在这里,可观测性确实是关键。

Arista在执行了一次完美无瑕的概念验证后,赢得了这场全面胜利,证明我们的架构显著超越了运营标准。为了实现深度网络可观测性,客户在我们的监控网络DMS上部署了R3系列,分别承担过滤和投递角色。此外,他们还部署了园区交换机,以极大简化带外管理。借助EOS丰富的遥测能力,客户解锁了VXLAN报头剥离以及向完全自动化的声明式运营模型过渡等高级功能。

我们最终的胜利来自制造业领域,在这里我们看到了惊人的增长势头。在这一领域,我们有一位客户在全球运营着100多个工厂站点,为消费品、医疗保健、航空航天、国防以及 AI 基础设施客户提供服务。这是一个真正的任务关键型应用场景,而他们的传统园区网络已经成为实现真正 24/7 生产的瓶颈。不断变化的流量模式、手动配置,以及更重要的,对微突发和丢包缺乏可视化与取证能力,阻碍了他们实现目标。

Arista在一场大规模竞标中击败了2家成熟厂商,这两家厂商都提出了无法与Arista交付方案相匹敌的园区设计:一个基于开放标准、在整个园区、数据中心和WAN运行单一EOS二进制文件的通用leaf spine园区架构。Cognitive Campus解决方案采用了100-gig园区spine、高功率PoE leaves以及Arista WiFi 7。CloudVision端到端驱动了整套网络基础设施的部署、配置和生命周期管理,并在整个网络中提供一致的工具链。这里真正形成差异化优势的,是Arista的现代化运营模式:在该项目中实现了无中断生产升级、用于微突发可见性的延迟分析器,以及真正的丢包取证能力。

各团队能够显著减少影响生产的维护窗口,并消除此前曾导致生产线中断的事件。在这4个案例中,Arista 的支持团队因其一流的服务而给客户留下了深刻印象;众所周知,即使在 Arista 设备不再被怀疑是故障原因之后,他们仍会长期为客户排查问题。Arista 现代化的运营模式也发挥了关键作用,尤其是 Ken 提到的 AVD 工具,在架构、验证和部署方面都很有帮助。我们对整个企业业务的增长势头感到振奋,尤其是它为 Arista 带来的业务多元化。谢谢,Jayshree。

Jayshree Ullal 首席执行官兼董事长

谢谢你,Todd。谢谢你,Ken。听到客户获得满意成果真是太好了。我们在3月份于总部举办的 Innovate 2026 活动上,也看到了一个很好的例子。超过250位出席客户所展现出的活力与热情,确实极具感染力,也令人深受鼓舞。我要特别向 Ashwin Kohli 和 Dhivya Wagner 的团队致意,他们已经将我们出色的净推荐值从87提升到89分,相当于94%的客户认可度。这真正体现了科技行业中最低的安全漏洞水平。它增强了我们更好应对 AI 所带来诸多风险的能力。

展望今年,我们的 Arista 2.0 动能持续向前推进并产生共鸣。实际上,我们的需求是我在 Arista 任职期间见过的最强劲的。不过,供应端却是稍有不同、甚至相反的拖累。我们正经历全行业范围内的普遍短缺,无论是晶圆、硅芯片、CPU、光模块,当然还有我在上季度提到的内存,而且获取这些产品的成本也在上升。

显然,今年我们的需求超过了供应。虽然我们希望未来一两年供应链会有所缓解,但 Arista 运营团队一直在勤勉地与我们的供应商合作,加强供应协议,并达成多年采购承诺。由于产品结构以及我们为确保向客户持续供货而愿意支付更高成本所做的取舍,我们预计毛利率将面临压力。尽管如此,这让我们有信心将预测增长略微上调至 27.7%,目前目标为到 2026 年实现 115 亿美元。我们也将今年的 AI 目标上调至 35 亿美元,从而使我们的 AI 销售额实现每年翻倍以上的增长。

带着这个好消息,接下来请你来介绍财务细节,Chantelle。

Chantelle Breithaupt高级副总裁兼首席财务官

谢谢,Jayshree。我一直对我们公司能够交付如此广泛而深入的网络创新感到印象深刻。这是一项核心原则,也是我们为股东带来强劲财务回报的基础。第一季度的财务表现细节如下。首先,第一季度总收入为27.1亿美元,同比增长35.1%,高于我们26亿美元的指引。在本季度内,各客户板块均实现增长,其中由我们的 AI 和 specialty providers 客户带动。

本季度国际收入为4.189亿美元,占总收入的15.5%,低于上季度的21.2%。这一环比下降主要受面向我们大型全球客户的美洲地区销售影响。第一季度整体毛利率为62.4%,处于62%至63%的指引区间内,较上季度的[不可辨认]有所下降。该环比下降是由于本季度面向企业客户的销售占比降低所致。本季度运营费用为3.968亿美元,占收入的14.6%,较上季度的3.971亿美元略有下降。

我们的研发支出达到 2.715 亿美元,占收入的 10%,尽管由于新产品导入成本的时间安排,环比略有下降,Arista 仍持续展现出其对网络创新的承诺和专注。销售和市场费用为 1.035 亿美元,占收入的 3.8%,较上季度的 4% 下降,这体现了 Arista 极为高效的市场拓展方法。我们的 G&A 成本为 2,180 万美元,占收入的 0.8%,较上季度的 2,630 万美元下降,反映出我们在纯网络业务模式下强劲的基础成本效率。本季度我们的营业收入为 12.9 亿美元,占收入的 47.8%。

让我在此暂停一下,感谢更广泛的 Arista 团队所付出的所有努力,以及他们在充满变化的环境中所取得的出色执行。该季度的其他收入和支出为有利的1.108亿美元,我们的有效税率为21.1%。总体而言,这使得该季度净利润达到11.1亿美元,占营收的40.9%。我们的摊薄后股数为12.7亿股,因此该季度摊薄后每股收益为0.87美元,较上年增长31.8%。

现在转向资产负债表。现金、现金等价物和有价证券在本季度末约为123.5亿美元。本季度,我们没有回购普通股。在2025年5月批准的15亿美元回购计划中,未来季度仍有8.179亿美元可用于回购。未来回购的实际时机和金额将取决于市场和业务状况、股价及其他因素。

现在转向本季度的经营现金表现,我们在本期从运营中产生了约16.9亿美元的现金流,这是 Arista 历史上最强劲的表现。这主要得益于强劲的盈利表现,以及递延收入的增加。DSO 为64天,较第四季度的70天下降,原因是本季度出货较为均匀。我们的存货周转略有改善,从上季度的1.5提升至1.7。季度末库存为23.8亿美元,高于上季度的22.5亿美元。这一小幅增加是经过计算的投入,用于优化原材料结构,以满足我们不断增长的需求。

我们在本季度末的采购承诺为89亿美元,高于第四季度末的68亿美元。正如前几个季度所提到的,这一预期活动主要反映了与新产品和AI部署相关的芯片采购。未来几个季度,我们的采购仍会存在一定波动,这反映了新产品需求、零部件波动以及主要供应商交货周期的综合影响。这也可能导致在部署前的几个季度出现较高的库存余额。

我们的递延收入总余额为62亿美元,高于上一季度的53.7亿美元。递延收入余额的大部分与产品相关。我们的产品递延收入较上季度增加了约6.43亿美元。我们仍处于新产品放量、赢得新客户以及拓展包括AI在内的应用场景的阶段。这些趋势导致客户特定验收条款增加,并使我们的产品递延收入余额波动性上升。

如前几个季度所述,递延余额可能会按季度出现显著波动,而不受基础业务驱动因素的影响。应付账款周转天数为54天,较第四季度的66天有所下降,这反映了存货收货和付款的时点变化。本季度资本支出为5,450万美元。我们继续推进在 Santa Clara 扩建设施的建设工作。第一季度,我们与该项目相关的资本支出约为4,000万美元,预计到2026年将达到1.8亿美元。这些第一季度业绩为我们2026财年带来了强劲开局。正如 Jayshree 所提到的,我们很高兴将2026财年的展望上调至收入增长27.7%,约合115亿美元。我们维持2026年 campus 收入目标12.5亿美元不变,并将 AI fabric 目标从32.5亿美元上调至35亿美元。我想借此机会提醒各位听众,具有验收条款的客户项目,其时点和结果可能会带来季度及环比波动,而这种波动并不一定遵循上年的趋势。

对于毛利率,我们重申本财年的区间为62%至64%,其中已包括产品结构以及 memory 和 silicon 预计上升的供应链成本。鉴于当前严峻的供应环境,我为我们采购团队的执行表现感到自豪,这对毛利率展望维持在我们的指引区间内做出了重要贡献。我们有信心能够获得满足客户需求所必需的供应。我们本财年的经营利润率展望仍约为46%,预计税率为21.5%。

在现金方面,我们将继续努力优化我们的营运资本投资,由于采购承诺项下零部件收货时间的影响,库存和经营现金流预计会出现一定波动。更具体地说,我们现在对第二季度的指引如下:新增每股摊薄收益这一季度指标后,收入约为28亿美元,毛利率在62%至63%之间,经营利润率在46%至47%之间,每股摊薄收益约为0.88美元,摊薄后股数约为12.7亿股。

我们的有效税率预计约为21.5%。最后,我们对即将到来的财年持乐观态度。该行业多次证明,以太网最终会成为制胜技术,而这正是Arista最擅长的领域。我们感谢客户选择与我们合作,以实现他们的业务成果。

现在轮到你回答问题了,Rudy。

Rudolph Araujo投資者倡議主管

谢谢你,Chantelle。[操作员指示]感谢你的理解。Regina,请开始。

Question-and-Answer Session

Operator

[主持人指示] 我们的第一个问题将来自 Raymond James 的 Simon Leopold。

Simon LeopoldRaymond James & Associates, Inc., 研究部

很好。我想特别探讨一下你关于跨机会规模的评论。我想更清楚地了解的是,这一部分去年贡献了多少收入(如果有的话)?它对你今年给出的35亿美元预测有多重要?以及从长期来看,这一趋势应该如何发展?

Jayshree Ullal 首席执行官兼董事长

当然,Simon。我认为去年在整体规模上,我们才刚刚起步。所以我觉得当时的数字还比较小。而且大部分数字其实都是 scale out。这算是我们的传统优势,也是我们擅长的领域。如果让我预测今年会是什么情况,再说一次,scale up 几乎是 0,基本不存在,因为它实际上只有在 ESUN 规格之后才会真正发挥作用。所以可以把它看作是更偏向 '27、'28 年的数字。我认为这个数字会主要由 scale across 和 scale out 共同分担。我不知道能不能说是 50-50,还是 70-30,或者 60-40,但 scale across 肯定会贡献我们 AI 数字的至少三分之一。

Operator

我们的下一个问题将来自 Wolfe Research 的 George Notter。

George NotterWolfe Research, LLC

也许只是继续讨论扩容。我们开始看到机架设计赢单了。我想,你们在 ODM 领域的一家竞争对手,至少已经公布了几个设计。我知道你们把 ESUN 看作是推动那里的业务增长的一个关键催化剂。

但你能不能稍微谈谈你们在客户设计方面进展到什么阶段了?如果你能在这方面告诉我们一些情况,那就太好了。事实上,我记得几个季度前你说过,你们有 5 到 7 个正在推进的规模化机架设计。也许你可以更新一下这方面的情况。

Jayshree Ullal首席执行官兼董事长

是的,没错,George。我认为我们毫无疑问地觉得,到2027年我们会有不少机架以及不少纵向扩展的应用场景。也许其中有一些会处于早期试验阶段,但大多数都在看真正从1.6T开始,而1.6T芯片确实会在2027年实现。可能会有少数几个,只有寥寥几家,尝试过一些800 gig的实验性东西。

但我们仍然看到至少 5 到 7 个机架机会。其中一些是同一客户的多个机架。我们正在与他们积极进行设计。我们有大量液冷设计,需要采用非常高密度的布线方案,以及集体通信加速和我们必须针对低延迟进行优化的内存特性。所以我确实感觉,今年我们正与 Ken 和 Hugh 的团队一起处于一个积极的工程阶段。

但与 ODM 不同,我认为我们被要求遵守更高的标准,我们必须确保这套东西具备量产可用性,并且符合 ESUN 的规格。因此,我会说,今天的规模扩展主要还是局限于 NVIDIA 的 NVLink,也许还有一些 PCI 交换。而以太网的规模扩展的大部分实际上只会在 2027 年和 2028 年才真正发生。

Operator

我们的下一个问题来自 New Street Research 的 Antoine Chkaiban。

Antoine ChkaibanNew Street Research LLP

随着供给超过需求,我想知道你们目前的供给量允许你们在今年和明年增长多少?更新后的28%营收增长指引,是否很好地反映了你们今年已锁定的供给规模?而基于你们目前认为能够获得的供给,明年的这个数字可能会是什么样子?

Jayshree Ullal首席执行官兼董事长

Antoine,我认为供应链问题,Todd,或许你可以补充一下,这不是一到两个季度的现象。我们现在认为这是一到两年的现象。当你——起初,我们以为是内存问题。现在则是所有晶圆制造工厂都面临压力。每一颗芯片都受到挑战,你可以看到 Chantelle 在多年的采购承诺上有多么坚定。因此,虽然我们会继续改进,但这反映的不仅是需求,还有我们今年能够发货多少。

随着我们在今年继续交付,我们可以让你对明年的情况有更清晰的了解。但我只能告诉你,我们看到的是多年的需求,我们会尽一切努力,包括牺牲我们的毛利率,来满足今年和明年的这种需求,因为我们认为,我们当然不想让 GPU 闲置、让 AI 基础设施利用不足,只是因为 Arista 没有提供网络。

那么——今年这个数字还能再好一点吗?我认为这反映了我们对一个不错数字的最佳努力。我们一开始——我们最初是20%——25%的增长吗?是的。所以我们最开始是20%,后来到25%,现在是27.7%。到今年年底还能改善吗?我们拭目以待。不过,我们看到的取消承诺数量并不乐观。所以我们认为,这些情况很大一部分会延续到明年,并在未来几年继续对我们形成制约。

Operator

我们的下一个问题来自 Wells Fargo 的 Aaron Rakers。

Aaron RakersWells Fargo Securities, LLC, 研究部门

Jayshree,上个季度,你提到过与其他超大规模云巨头客户的某种合作关系?我记得你还提到过,今年可能会新增 1 到 2 家占比达到 10% 的客户。我想了解一下我们目前进展如何?对于再增加 1 到 2 家 10% 以上的客户,你有没有更新的看法?另外,能否从定性的角度谈谈,除了你们的两大云巨头之外,你们在整个超大规模垂直领域正在推进的合作情况?

Jayshree Ullal首席执行官兼董事长

当然可以。首先是两家大客户。我们从不把它们视为理所当然。Microsoft 和 Meta 一直都是最受青睐的客户,超过十年来它们一直是营收占比 10% 以上的客户。双方的合作关系从未如此紧密,而且在云和 AI 领域都在持续变得更好。至于新加入的客户,我们仍然预计至少会有一家,也可能是两家——也许我应该补充一点,当然,从需求来看,我们看到会有 1 到 2 家。Todd,我们还要看出货情况,看看能否实现超过 10%。

这两个有非常有趣的特征。它们体现了我刚才提到的那 3 种用例:纵向扩展、横向扩展和跨域扩展,在这些场景中,我们实际上有一种 fabric 的概念来创建——到目前为止,我们一直在前端与它们进行了大量合作,现在我们可以在后端加以补充,尤其是用于横向扩展和跨域扩展,甚至在这些用例中的某些场景里还会有一点纵向扩展。我们在许多这些用例中看到的另一点是,缺乏电源洞察,以及实现分布式和更高多租户规模的能力与需求,在这两个用例中都非常高。

第三个共同点,我们在他们身上都看到了,尽管我们都在谈论 ODM 和白盒,他们也非常认可 EOS 以及其功能、可靠性和可观测性,而且——仅仅是我们拥有一个稳健、高可扩展性的 Layer 2、Layer 3 协议栈这一事实,就带来了很多显著的优势。所以我认为,这些云巨头之所以如此多元化,主要是因为我们将出色的硬件和软件结合在了一起。

Ken,你想说几句吗?

Kenneth Duda 联合创始人、总裁、首席技术官兼董事

亲历这一切并看到我们正在建设的基础设施水平,以及我们的硬件和软件路线图在应对这些不断演进、日益高级的用例方面所处的有利位置,真的令人难以置信。能参与这些工作,真是太过瘾了。

Jayshree Ullal 首席执行官兼董事长

当你的工作很有趣的时候,总是件开心的事。Ben,我还是看到有1个,可能2个10%的客户。Todd,希望我们能把它发货——抱歉,Aaron。

Operator

接下来,我们的问题来自 Melius Research 的 Ben Reitzes。

Benjamin ReitzesMelius Research LLC

好了,Jayshree,我在这里。是的,我想问一下关于产品限制的问题。你能说一下这个季度的数字是多少,以及它对 28 亿美元指引造成了多少影响吗?能否安全地说,两者本来都会高出 1 亿美元或 2 亿美元?然后如果你不介意的话,也请你谈一下为什么毛利率应该回升到 63%。你们正在做些什么,让我们有信心它实际上还能从这里再小幅扩大一点?

Jayshree Ullal首席执行官兼董事长

是的,我想我就——我觉得——我不认为关于截至Q1、Q2需求超过供给的那番评论。我想我们说的是展望Q3、Q4以及明年。所以我不认为这里有什么超出我们所指引的内容,或者超出我们在上半年已经交付的内容。我想就利润率而言也是如此。所以,利润率是多种因素的组合,对吧?

而且我认为所有团队成员都在全力执行。我认为供应链部门也在尽其所能,确保我们以最优价格获得最好的供应。因此,我们已经把这一点纳入考量。我认为客户结构——实现结构改善或利润率提升的唯一机会都将来自客户结构。因此,我认为这就是机会所在;当我们展望下半年能交付什么时,我认为这将是机会。

Todd Nightingale 总裁兼首席运营官

各团队也在尽一切努力确保我们控制成本,尤其是在制造环节,这包括引入备用供应商、启用新零部件等等,以使我们的供应链在长期内更具韧性并更具成本效益。

Jayshree Ullal 首席执行官兼董事长

还有一点需要澄清的是毛利率。我们把这视为与客户的合作关系。因此,虽然我们会考虑并且也小幅提价了,但与我们的竞争对手不同,我们没有进行两次价格上调,也没有进行大幅提价。实际上,价格上调真正开始发挥作用,是在我们的积压订单开始减少之后,对吧?所以你不会看到那种影响。因此,我们的毛利率主要受到成本上升的显著影响,我们仍然吸收了很多成本,并把我们承诺给客户的定价优惠和承诺兑现给了客户。

Operator

我们的下一个问题来自高盛的 Michael Ng。

Michael Ng高盛集团,研究部

我只是想知道,您是否可以谈谈 Arista 是否看到了使用 TPU 或类似 TPU 架构的客户所带来的网络附加机会。然后,关于 neocloud 业务增长势头,您能否也评论一下?您是否认为这一点可能被分析师群体有些低估了?

Jayshree Ullal首席执行官兼董事长

是的,Michael,你完全正确。我先回答你的第二个问题。谈论这些巨头很容易,因为它们的数字实在太惊人了,对吧?但 neoclouds 是一个非常重要的领域,因为它们并不总是有足够的员工去完成自己想做的所有事情,而且它们非常依赖 Arista 的设计专业能力、EOS 专业能力,以及我们可以为它们提供的网络设计配置,还有我们在 AI 领域拥有的 22 款产品系列。所以,是的,我同意你的看法。这是一个被低估的领域,如果我没记错的话,neocloud 在本季度表现非常强劲,Chantelle,尤其是在专业和云服务提供商这块。另一个问题是什么?你有 1a、1b 吗?

Chantelle Breithaupt 高级副总裁兼首席财务官

TPU。

Jayshree Ullal首席执行官兼董事长

是的,TPU。总体来说,我们看到各种各样的加速器。上次我谈到了 AMD 加速器。这一次,我一定要提到 TPU,因为尤其是在跨用例扩展方面,我们看到多租户正在连接到不同的 AI 加速器,包括 TPU。因此,我认为加速器的多样化正在带来巨大的多加速器机会,以及我们可以在网络中为它们提供的多协议功能。

Operator

我们的下一个问题来自 TD Cowen 的 Sean O'Loughlin。

Sean O'Loughlin TD Cowen,研究部

很好。祝贺你们取得的成绩,也感谢让我一起参与这次讨论。Jayshree,我想听听你对这个问题的看法——我们一直在大量讨论 agentic AI,以及它对我们过去几年里可能一直处于幕后的一些更通用基础设施所带来的需求。你之前提到过,后端会对前端网络形成 2:1 的压力。首先,我想知道现在这种理解方式是否仍然正确?其次,随着 genic 工作流变得越来越普遍,从你的角度看,在前后端都采用单一架构的 EOS 平台,是否会带来额外需求?还是说前端和后端仍然相当独立?

Jayshree Ullal 首席执行官兼董事长

好的。首先,Sean,欢迎来到你的第一次电话会议。会很有意思,加入进来吧。关于 agentic AI,它算是一个流行词,但让我把它拆开来说一下——我们目前在 agentic AI 中看到的最大“杀手级应用”仍然是训练。实际上,它会逐步转向更分布式的推理。我们也希望看到 agentic AI 进入很多企业级用例;顺便说一句,我们确实都在看到这些。不过我想说的是,按规模来看,有大、中、小之分。agentic AI 最大的杀手级应用是训练,中等的是企业应用,最小的——中等的是推理,而小的显然是企业应用。

在后端与前端方面,我们现在看到更多的是后端活动,尤其是我们的大型 AI 巨头和云巨头,因为它们需要为数十亿个参数和 token 做好准备,所涉及的规模实在太大了。这就是很多……以至于我认为前端可能会在之后回归并重新焕发活力,但它们现在几乎被忽视了,转而优先关注后端。

不过话说回来,得益于后端部署,我不知道我们现在是否还会看到前端 2:1 的情况,但至少我们能看到 1:1。这个 1:1 可能是广域、CPU 和存储这几类,这大概是 3 个常见用例。并不是所有客户都会把一切都全部整体迁移并同时做这 3 项,尽管我们也遇到过一些案例,有些客户是在进入后端之前先对前端做了升级。不过通常他们还是得回过头来处理这件事,因为一旦你在后端施加那种性能压力和规模,前端几乎就必须做些调整。但目前我会说,更像是一比一。另外,就目前而言,我也会说,后端横向扩展已经成为比我们去年这个时候想象中更大的一个用例。

Kenneth Duda联合创始人、总裁、首席技术官兼董事

我还要提到的一点是,能够在前端和后端都拥有同一套产品、同一个通用操作系统管理套件和运营模式,感觉非常好。这降低了客户的成本,简化了他们为获得这种协同效应而进行的设计流程,而我们是少数能够做到这一点的供应商之一。

Jayshree Ullal 首席执行官兼董事长

我只是想。

Kenneth Duda联合创始人、总裁、首席技术官兼董事

是的,我想是这样。

Jayshree Ullal首席执行官兼董事长

我认为只有。是的,绝对是。说得好,Ken。

Operator

我们的下一个问题来自 Morgan Stanley 的 Meta Marshall。

Meta Marshall摩根士丹利,研究部

感谢这个问题。也许可以问一下关于 XPO 变现的情况,或者它如何帮助你们继续从客户那里提升份额,或者仅仅是通过在技术上如此积极领先,来提升在客户中的心智份额。

Jayshree Ullal 首席执行官兼董事长

是的。谢谢,Meta。我想,如你所知,我们不是传统的光学供应商。但几乎总是这样,每当我们销售交换机时,你都必须连接到某种设备。通常是某种形式的铜缆或光模块。所以——以及这些关于 OSFP 的创新,我对此记得非常清楚,当时大家都在说:“哦,不,不,我们只要用 QSFP 就行了。”事实证明,这不仅对 Arista 有贡献,对整个行业也是如此。而我们对 XPO 的看法仍然是这样。

尽管业界一直在大量讨论共封装光学,但这仍然只是科学实验,而且它们非常专有,各个供应商都在各行其是。我们认为,几年后我们会拥抱开放式 CPO,但我们认为 XPO 未来还有 10 年的发展期,尤其是在 1.6T 和 3.2T 场景下,你需要液冷,也需要那种容量。所以,我们所谈论的所有扩展型机架,如果没有 XPO 或 CPC 以及这些技术中的任何一种,都是不可能实现的。

所以我们认为——正如过去十年深受 OSFP 影响一样,未来十年也将深受 XPO 的影响。并且请记住,今天我们所连接的光学市场中有 99% 都是可插拔光模块。所以这是一项非常关键的发明和创新,不仅对 Arista 如此,对整个行业也是如此。

Kenneth Duda联合创始人、总裁、首席技术官兼董事

我认为这是一个很好的例子,说明 Arista 如何先打造一个生态系统,然后随着这个生态系统的成长,我们也从中获益。而借助 XPO unlocks,这是一种标准化、可互操作的[indiscernible]方式,能够在液冷环境下实现 4 倍的网络密度,这对这些 AI 用例来说绝对至关重要。没有这个,你就会在前面板遇到巨大的瓶颈,需要额外大量的机架空间才能通过 OSFPs。所以,我们实际上是在以这种方式推动整个行业未来的增长,而我们自身也会从中受益,其他人同样也会受益。

Jayshree Ullal首席执行官兼董事长

是的,这让我感到很惊讶。我记得当我第一次和 Andy 以及 Vijay 交谈时,他们说:“哦,我们觉得大概能拿到 20 个签名”,结果后来变成了 40 个,现在已经超过 100 个了。所以这告诉我,整个联盟正在为像 Ethernet、IP 以及光学标准化这样的事情聚集在一起。

Operator

我们的下一个问题来自 Bank of America 的 Tal Liani。

Tal Liani BofA Securities,研究部门

你能听到我吗?

Unknown Executive

是的,Tal,我们能听到你。

Tal LianiBofA Securities, Research Division

我今天答应自己要友善一点。所以我有个好问题要问你。

Jayshree Ullal 首席执行官兼董事长

我也答应要友好一点。

Tal LianiBofA Securities, Research Division

递延收入。过去一年,递延收入翻了一番。如果把短期和长期合在一起,它增加了8.26亿美元。过去4个季度里,它显著上升了。需要发生什么?确认递延收入的条件是什么?也就是说,在接下来的几个季度里,要满足什么条件才能将递延收入确认出来?是关于数据中心投入使用、流量进入数据中心吗?还是递延收入增加的来源是什么?

Jayshree Ullal 首席执行官兼董事长

对,对。Tal,所以我真的很喜欢你。所以我会对你好,不是因为我必须这样做,而是因为我想这样做。所以我想如果你还记得 10 年前,Tal,我们也经历过类似的现象,当时在云领域,整个 Leaf spine 设计都是全新的,没人真正知道怎么去构建它或把它变现,而他们正在为 Azure 等构建世界上一些最大的网络,对吧?而且我们有新产品,他们有新设计。他们传统上一直在做接入、汇聚、核心,现在正转向 [indiscernible]。而且我们经历了一些相当长的认证周期。

所以我会说,这里面有客户层面的因素,也有产品层面的因素。客户层面的因素是,他们需要有空间,需要有设施。他们需要有——在这种情况下,现在是 GPUs,而以前是 CPUs——他们还得把机架和设备都搭建好。顺便说一下,在很多情况下,我们碰到的例子是,他们——确切地说,需要手动安装线缆,而这要花上好几个月,对吧?需要成千上万的人去做这件事。

当然,这其中肯定有客户接受度的问题,首先要做到准备就绪。另外,这也是一款新产品。Arista EtherLink 家族中的许多新产品,尤其是面向 AI 的产品,都是全新的:全新的芯片、全新的软件;他们对这些产品的熟悉程度,尤其是在后端的横向扩展和跨域扩展方面,对他们来说都是新的。

所以,这里面有一个测试层面,以及一个确保它能与他们整个生态系统其余部分协同工作的层面,包括前端,这一点非常重要,而 Arista 对此也承担着巨大的责任。总之,我只是想告诉你,这个认证所需的时间,以前是 2 到 4 个季度,现在已经延长到大约 6 个季度,甚至 8 个季度。所以时间变得长得多了。Chantelle,你想补充什么吗?

Chantelle Breithaupt 高级副总裁兼首席财务官

是的。另一件事——谢谢你,Jayshree——是我们确实每个季度都会确认其中的一部分。所以这不是说它是一个一直在累积、越来越高的单一余额。我们每个季度都会确认一些项目,有些项目进来后会被计入损益表。所以我只是想确保你理解这一点……

Jayshree Ullal首席执行官兼董事长

这不是在堆积。有些东西进来了,有些东西出去了。是的。这有道理吗,Tal?Tal,你是不是静音了?

Kenneth Duda联合创始人、总裁、首席技术官兼董事

不,不。他在提问后就安静下来。

Jayshree Ullal 首席执行官兼董事长

哦,他确实会。好的。行。

Operator

我们的下一个问题来自Evercore的Amit Daryanani。

Amit Daryanani Evercore ISI 机构股票,研究部

我想,Jayshree,你们把 XPO 有点定位成了下一个 OSFP。我很想了解一下,XPO 从 OSFP 演示走向 27 年可能的部署,你们如何看待 AI 集群中光学架构的变化?然后也许具体到 Arista——随着我们向前推进,这会改变增长画像,还是会改变你们在每个 AI 机架或集群中的内容含量?

Jayshree Ullal 首席执行官兼董事长

是的。谢谢你,Amit。我认为你应该把 XPO 视为 OSFP 的合作伙伴。所以在 400 gig 和 800 gig 时,你用 OSFP 就没问题。而当我们在 27 年、28 年,甚至更远的未来迈向更高速度时,OSFP 将会力不从心,而这将成为新的首选连接器。因此,向更高速度的迁移就等同于向 XPO 的迁移,尤其是在 scale out 和 scale across 场景中。

在机架内和纵向扩展中,仍然有不少选择。我认为在2到3米的短距离内,你还是会看到很多共封装铜缆,我也认为XPO在密度方面会是另一种选择。不过,我也不排除那里的开放式CPO。他们真正想要的是在最小的空间里实现最高密度。所以我认为XPO在横向扩展和跨机架扩展中会特别普遍,并且也会是纵向扩展中的一种选择。

Operator

我们的下一个问题来自 Needham 的 Ryan Koontz。

John Jeffrey HopsonNeedham & Company, LLC, 研究部

我是Jeff Hopson,代替Ryan发言。感谢你的问题。关于scale cross,我觉得这似乎会非常契合Arista的所有能力。我知道你提到它今年可能占收入的约三分之一。但在未来几年里,scale cross会不会甚至比scale out更大一些?

Jayshree Ullal首席执行官兼董事长

Ryan,或者更确切地说,Jeff,我认为这个问题的答案取决于我们在这两方面做得有多好,以及两者分别采用什么样的形态。目前跨机架规模中占多数的是一款非常高端、重型路由平台,也就是7800。所以如果我们大量采用这种方式,比例可能会远远超过30%。但其中一些也可能采用固定盒式设备或固定交换机,并选择增加大量线缆,在这种情况下,比例就不会超过太多。所以我们不知道自己不知道什么。不过我同意你的看法,跨机架规模无疑是最重要、最具差异化的机会,它真正体现了Arista在平台和软件两方面的实力。

Operator

我们的下一个问题来自 JPMorgan 的 Samik Chatterjee。

Samik ChatterjeeJPMorgan Chase & Co, Research Division

Jayshree,也许和刚才那个问题有一点相关。我只是想了解一下,你刚才说在短期内,大部分云收入将来自 scale out 和 scale across,而我们还在等待 scale up 的增长。你如何看待在 scale out 和 scale across 方面的市场份额?在 scale across 早期阶段,你们在市场份额方面看到了什么?客户在决定 scale across 时,是不是主要还是由某种现有供应商和 scale-out 所主导?还是说他们在为已投入使用的 scale across 设计供应商时,做出的决定是完全不同的?

Jayshree Ullal 首席执行官兼董事长

好问题,Samik。你让我思考了一下。所以我会说,如果是 greenfield 部署,那么他们往往会把这些作为一个整体来考虑,因为他们不仅在建设站点,还在考虑它们之间的互联。因此,在这两种场景中,市场份额通常都很强。在某些情况下,Arista 过去并没有长期参与数据中心业务,我们现在就有机会在非 greenfield 的情况下提供跨多租户的规模,比如说在 brownfield 场景中,他们现在有了分散的数据中心或 AI 集群,我们现在必须把这些接入进来。所以再说一次,我认为 Arista 确实是一个很典型的例子,能够在这两种用例中都实现规模化,同时在全新的数据中心里还有额外机会覆盖所有用例,如果这样讲清楚的话。

因此,这给了我们一个机会去参与不同类型的加速器和不同类型的模型,因为人们得不到足够的算力,他们不得不分布式地部署数据中心。由于这种分布式部署,你需要更多的流量工程、路由和多租户能力。所以我会说,横向扩展是我们所有用例中的共同点,而纵向扩展和横向扩展也许是在全新的绿色场景中不错的选择。

Operator

我们的下一个问题来自 BNP Paribas 的 Karl Ackerman。

Karl AckermanBNP Paribas,研究部

Jayshree,你今天比以往任何时候都更专注于网络设计。这是否会改变你将服务货币化的能力,从而获取你为这些应用增加的其他价值中更多的部分?我想,在你回答这个问题时,考虑到递延收入中服务收入占比很大,服务收入是否有可能比整体收入增长更快,并在未来占到销售额的25%或30%?

Jayshree Ullal首席执行官兼董事长

我不这么认为,Karl。我认为我们是一家产品公司,我们大部分的收入来源,以及我们对 Arista 这家公司的兴趣,都是来自我们的产品传承,以及我们正在进行的所有设计。我们并不是靠服务收费。事实上,我们也会与合作伙伴紧密合作,我们会推荐网络设计。我们会支持服务,而且当然,像我们是全球支持的黄金标准这样的事情也是如此。但我不预计服务在我们收入中的占比会提高。我仍然——把我们自己看作是一家以产品为主导的公司。

Operator

我们的下一个问题来自 Truist 的 Matt Niknam。

Matt Niknam

我只想回到毛利率的话题。我知道我们当时大概处在 62% 左右的区间。同比下降了大约 170 个基点。我想深入了解一下,这主要是不是由产品结构变化造成的,或者你能否量化一下——内存以及成本相关影响有多大,如果你能提供一些相关信息的话。

Chantelle Breithaupt 高级副总裁兼首席财务官

是的,我认为这是个很好的问题。我会说,绝大部分差异——即使你看前一季度或前一年——主要来自客户结构。这里需要澄清一点,我们的大客户带来的毛利率增量更低。因此,这种结构变化是主要驱动因素。其次,虽然没有那么显著,但会有一些取决于季度的因素,比如延后转嫁的关税、内存成本或硅片成本等,具体取决于季度情况。所以,次要驱动因素是这些,但主要驱动因素还是客户细分结构。

Operator

我们的下一个问题来自 UBS 的 David Vogt。

Unknown Analyst

这里是Andrew,代表David。总体来看,考虑到接近24亿美元的库存,以及接近两年COGS的采购承诺,我们应该如何理解供应约束,以及在哪些方面,这些库存和采购承诺不足以满足需求?你们的库存缺口在哪里?

Kenneth Duda联合创始人、总裁、首席技术官兼董事

我不会说我们的库存有缺口,但需求正在激增,尤其是在最新平台上,这当然推动了我们对供应商提供最先进芯片的需求,也使我们对扩充内存的需求比年初预期的还要大。所以

这正推动我们成为市场上的买家。幸运的是,我们拥有相当不错的支出能力。在这些情况下,我们是非常可靠的合作伙伴。因此,我们与这些供应商保持紧密合作。但毫无疑问,我们正在交付的最新平台,尤其是在 AI 领域,正在推动我们在投资组合高端的需求。

Jayshree Ullal 首席执行官兼董事长

是的。再补充一点,David,真正的问题在于交期。我们正面临如此严重的晶圆厂短缺,以至于无法及时拿到芯片。所以与其说这是一个缺口,不如说我们的采购承诺是跨多年的,因为我们不得不应对延伸到多年的预测,以便能及时拿到这些芯片,因为这些芯片的交期非常长。所以我认为最大的缺口就是交期。

Kenneth Duda联合创始人、总裁、首席技术官兼董事

是的,我们目前相当稳定地经历着 52 周的交付周期,且预约需求还在超过这一期限,我们的客户当然不愿意等那么久。

Operator

我们的下一个问题来自 Piper Sandler 的 James Fish。

James FishPiper Sandler & Co., Research Division

Chantelle,也许对你来说,指引上调主要都是由 AI 驱动的。你们现在是不是在优先安排这些出货,还是说鉴于目前对非 AI、非 campus 业务有些犹豫,所以基本还是让这部分大致持平?另外,Jayshree,就你这边而言,想到这里毛利率的结构,你们现在看到 Blue Box 的采用情况怎么样?而且,鉴于你们这里有很多很聪明的客户,他们也非常清楚供应链限制,你们有没有看到任何需求的净提前拉动?

Chantelle Breithaupt高级副总裁兼首席财务官

是的。谢谢——谢谢你,James。我会先从我的部分开始,按照你问题的顺序来说。所以我不认为我们是在说,因为我们提高了收入并将其归因于 AI,就意味着我们对其他所有客户细分就不感到兴奋了。我想你听到 Jayshree 和我都提到过——我们对今年的开局非常满意,也对我们在全部 3 个客户细分中看到的情况感到满意。

我们对企业业务目前看到的情况非常满意,不过我不会说这还算是 AI。所以让我们把你提到的那部分归入一个非 AI 类别。先等等看吧,我们现在处于第一季度,正在汇报第一季度业绩。我们看看今年接下来会如何发展。不过,我们对这三个领域都非常有信心,因为我们看到的需求都很强劲。所以我想我的意思是,还是等我们在未来季度指引中看看会走到什么程度。Jayshree?

Jayshree Ullal 首席执行官兼董事长

我同意这一点。提醒大家一下,我们现在已经从去年 9 月说的 105 亿美元提高到了 115 亿美元。是的,其中很大一部分是 AI,但我们在园区方面也有积极的投入承诺,要达到 12.5 亿美元的季度规模,同时继续很好地服务并扩大我们的数据中心和云业务。所以这三块都在增长,但显然,AI 占据了新闻头条。

关于 Blue Box 的采用,你实际上听到的一个客户用例是从——你从 Ken 那里听到的那个用例,是从 white box 转到了 blue box。他们现在的目标是想转向 blue box,原因有几个:第一,它确实可行;第二,它也具备可扩展性;第三,它实际上能满足我们搭配 AMD 加速器的需求。未来,他们可能会使用开放式操作系统,但他们对诊断能力、平台、SDK 非常满意;我们实际上会重写每一段软件,并把 Broadcom 芯片的每一个晶体管位都调得非常好,还有 EOS 的这些特性。

未来,他们也可能使用一些开源操作系统,但这将是一个非常好的例子:一个如今运行 EOS 的 blue box,未来可能会迁移到其他操作系统。我们在 Neoclouds 中尤其持续看到这一点。在云和 AI titan 这些公司里,我们一直也能看到一点这样的情况,因为他们知道如何与开源操作系统协作。因此,我们一直采用这种混合策略,不过现在在 Neoclouds 中,我们确实看到这种趋势更加明显。

Rudolph Araujo投资者倡导负责人

Regina,我们还有时间再问最后一个问题。

Operator

我们的最后一个问题将来自 Cleveland Research 的 Ben Bollin。

Benjamin Bollin Cleveland Research Company LLC

Jayshree,你刚才稍早提到了推理,所以这目前算是一个相对较小的应用场景。我想听听你对企业在消费推理并创建代理方面的能力现状的看法。以及这种能力会如何随着时间发展,还有你认为当前网络和边缘网络处于什么水平,以及它们支持这些用例的能力如何。基本上,我想问的是,我们是否会迎来一个持续投资期,因为你现在看到的这些趋势会逐步外溢,并在企业中变得更加显著?以及这种影响会持续多久?

Jayshree Ullal首席执行官兼董事长

是的。不,Ben,我倾向于同意你的观点:虽然今天我们正处于训练热潮之中,但一种更加分布式的 AI——带有推理能力的生成式 AI 范式,这意味着你并不总是需要 GPU。你会有高端 CPU,你会需要管理更少的一组参数和 token,而且你会有特定的 agentic AI 用例和应用。我们看到的是非常非常早期的试验和阶段。现在还没有什么特别大的东西。

但我们看到——我的意思是,他们不像那些 AI 巨头那样拥有数十万块 GPU。不过,我们经常看到某些高科技领域的客户希望部署规模为 1,000 到几千台的集群,肯定不是 10,000 台,而是成百上千台。他们的需求正如你所说,通常不是训练,而是更多基于推理——也更偏向于 agentic AI 的边缘推理。

所以我认为我们会看到更多这样的情况。这是——如果你愿意这么说的话,这是暴风雨前的宁静。随着我们——随着 AI 变得更加分布式,我认为它不再只需要 GPU,它还会需要更多高性能计算。对我们来说,其中很多都像是高性能计算,HPC 的用例,而这些用例似乎正在因 AI 而重新焕发生机。所以我同意你的观点,Ben。我认为这将需要几年时间才能完全实现。

Rudolph Araujo投资者倡导负责人

Arista Networks 2026年第一季度财报电话会议到此结束。我们已发布一份演示文稿,提供有关我们业绩的更多信息,您可以在我们网站的投资者版块查看。感谢您今天的参与以及对 Arista 的关注。

Operator

感谢各位的参与。女士们,先生们,今天的电话会议到此结束。现在可以挂断电话了。