打开网易新闻 查看精彩图片
打开网易新闻 查看精彩图片

在约翰霍普金斯大学读本科时,材料科学专业的Alex Yeh正在为一件事发愁:他的计算材料科学研究需要GPU来跑模拟,但学校的算力资源紧张,他不得不频繁向生物医学工程系“借”卡,排队等待成了日常。

七年后,这位29岁的年轻人刚刚宣布了一项5亿美元的投资计划——与英伟达合作,在中国台湾建设AI Factory,部署万卡级GPU集群。

从排队借卡的学生到掌握万卡算力的创业者,Alex Yeh的轨迹,恰好映射出AI产业权力结构的一次迁移,当所有人都在追逐下一个杀手级应用时,真正的稀缺资源藏在更底层。

打开网易新闻 查看精彩图片

一个投资人的"第一性原理"

Alex并非典型的技术创业者。他在约翰霍普金斯大学主修材料科学与工程,辅修创业管理,从大学期间就开始接触风险投资,毕业后进入亚太多家知名私募和风投机构,专注于AI和新兴技术领域,累计参与了超过100个项目的投资。不到30岁,他已经是圈内最年轻的合伙人之一。

投资人生涯训练出的核心能力,是一种被他称为"第一性原理"的思维方式:面对任何市场,连续追问五个“为什么”,层层剥开,直到触及那个不变的底层逻辑。

Alex曾用这套方法论审视过不同行业。看养老赛道,不变的是老龄化趋势;看新兴技术投资,他发现自己每天都在听AI创业者的路演,大家都想做AI时代的Uber或Instagram,却很少有人愿意去做底层的事情。软件容易被复制,但硬件和算力才是真正的硬门槛。

一个念头逐渐变得清晰,与其作为投资人去赌哪个应用会赢,不如亲自下场,做那个无论谁赢都需要的基础设施。就像1995年互联网刚起步时,没有人能预见20年后会出现Facebook或阿里巴巴,但可以确定的是,所有的在线业务都需要服务器和带宽。

在AI这个瞬息万变的领域,Alex找到的那个不变量就是GPU算力。

打开网易新闻 查看精彩图片

重资产的"笨"逻辑

2023年,GMI Cloud正式成立,但Alex切入AI基础设施的方式与大多数人想象的不太一样。

在创业之前,他已经在算力相关领域有过探索,积累了数据中心选址和电力资源布局的经验。这段经历让他对这门生意的本质有了不同的理解:大多数云服务商本质上是“二房东”,租用别人的机房和设备再转租出去,而Alex选择了一条更重的路——从源头开始控制。

他锁定了大规模的场地资源和电力供应,自建数据中心,自持核心设备。这种垂直整合的模式看起来笨重,资本效率似乎不高,但它解决了一个关键问题:在GPU供应紧张的年代,谁能控制上游资源,谁就掌握了话语权。

更重要的是,这种模式让GMI Cloud能够触及底层硬件的优化空间。传统云厂商拿到的是虚拟化之后的算力,很难做深度调优,而掌握裸金属的GMI Cloud可以从芯片、内存、网络层面进行全栈优化,把推理效率和成本控制到极致。

公司成立后,Alex迅速组建了核心团队,从谷歌等顶尖科技公司挖来了关键技术人才,在多个国家和地区布局数据中心节点。

打开网易新闻 查看精彩图片

Alex Yeh在颁奖现场

打开网易新闻 查看精彩图片

押注“推理时代”

如果说垂直整合是GMI Cloud的底座,那么对行业趋势的精准判断则是这家公司快速崛起的另一个关键。

早在DeepSeek R1发布前的五六个月,Alex就做出了一个重要决策,公司必须快速开发一套完整的推理引擎框架。

在他看来,AI从训练阶段进入推理阶段是一件清晰且必然的事情。大模型已经训练得足够好用,各种应用开始落地——航空公司的AI客服可以帮乘客改签机票,手机上的即时翻译App已经相当流畅。当模型足够成熟,下一步必然是大规模的推理部署,而且需要极低的延迟。

训练和推理的本质差异,决定了它们对基础设施的要求完全不同。训练像是系统性的学习,需要稳定的算力集群按部就班地处理海量数据;推理则像是随机考试,要在完成判断的同时应对突发流量、多模态输入等复杂场景。电商大促时的毫秒级响应需求、工业质检中的实时缺陷识别,都要求算力基础设施具备极高的弹性和响应速度。

基于这个判断,GMI Cloud为即将上线的推理引擎设定了三个核心能力:自动扩容(Auto Scaling)、全球扩容(Global Scaling)和热切换(Hotswap),并且尤其重视热切换——在推理阶段,机器宕机对客户的影响极大,必须确保即便出现故障,也能有机器快速补位,保证系统的持续可用。

2025年初,当DeepSeek引爆推理需求时,GMI Cloud已经准备就绪。公司在最短时间内完成了基于H200的DeepSeek R1专属部署和优化,Inference Engine平台的可用性达到99.995%。这次未雨绑缪,让公司在行业爆发的窗口期抢占了先机。

打开网易新闻 查看精彩图片

不只是“卖铲子”

在AI创业圈,“卖铲子”是一个被用滥的比喻,但Alex并不认同这个标签。

GMI Cloud的定位是AI Native Cloud,不是在传统云上跑AI,而是从底层就为AI场景而生,这与AWS、Azure等超大规模云厂商形成了本质区别。

首先是位置。传统云巨头通常只围绕几个核心大区提供服务,但在很多特定市场,比如东南亚或日本,地区算力资源覆盖并不完整,往往需要连接到远端节点,在延迟和数据合规上都会遇到问题。GMI Cloud目前在全球多个地区部署了多个节点,能够更灵活地满足本地化需求。

其次是服务深度。在大型云厂商那里,除非是年预算超过2,000万美元的大客户,否则很难获得专属的技术支持。但AI训练过程极不稳定,机器与模型的绑定非常深,非常需要技术团队的深度介入。GMI Cloud能够提供这种高强度的技术支持,帮助客户优化整个技术链路。

最核心的是产品架构。传统云厂商的底座大多围绕CPU构建,GPU只是其中一部分,而GMI Cloud从一开始就定位AI Native Cloud,只用英伟达的高端芯片,拥有底层硬件的控制权,可以做到裸金属交付。另外根据Benchmark数据,GMI Cloud 的一款MaaS产品 Inference Engine正是因为自有GPU资源优势,其API在大语言模型推理方面比原厂模型要快2到3倍,在视频生成模型上甚至能比原厂快3倍。

Alex用一个比喻来描述公司的产品体系:巨石、鹅卵石和沙子。巨石(Rock)是超大规模集群,服务于大模型公司的训练需求;鹅卵石(Pebble)是通过容器化服务,满足初创企业灵活、中等规模的算力需求;沙子(Sand)则是通过Inference Engine提供API服务,让开发者能够随时随地调用各种模型。三层打通,从万卡集群训练到单次API调用,提供全栈解决方案。

他还喜欢用“Shopify of AI”来向投资人解释公司的定位。Shopify让任何一个创业者都能快速建店,不被电商巨头绑架。同样,GMI Cloud希望把算力环境的自主权还给客户,让他们能够自由选择、组合和扩展,而不是被锁定在某一家云厂商的生态里。

打开网易新闻 查看精彩图片

5亿美元的AI Factory

2024年10月,GMI Cloud完成了8,200万美元的A轮融资,获得了英伟达NCP认证。这个认证目前全球仅有6家公司持有,意味着在GPU供应紧张的市场环境下,公司拥有最高优先级的拿货权和原厂技术支持。

NCP认证带来的不仅是拿卡优势。GMI Cloud与英伟达在研发层面保持着密切的双周技术会议,在推进全亚洲第一个GB300液冷万卡集群的建设过程中,英伟达的团队直接介入,协助调整参数和部署方案。这种从底层架构到网络层面的深度技术支持,是搞定超大规模集群的关键。

更大的动作是与英伟达合作的AI Factory项目。这座位于中国台湾的基础设施总投资达5亿美元,总功率16兆瓦,搭载96个高密度GB300 NVL72架构,内置万卡级Blackwell Ultra GPU,预计每秒可处理近200万token。

与传统数据中心不同,AI Factory是专为规模化AI工作负载设计的,以智能作为产出,以GPU算力作为生产设备,以数据作为输入。这座工厂将有效打通AI技术从概念到应用的最后一公里。

据悉,该项目的第一期算力已经全部售出,第二期也已有50%被预定。这背后是当前算力市场的真实供需:尽管芯片产能不再像两年前那样极度紧缺,但优质、可用的集群资源依然稀缺。

打开网易新闻 查看精彩图片

Alex Yeh在颁奖现场

打开网易新闻 查看精彩图片

下一个战场

对于未来,Alex保持着清醒的危机感。

很多人认为GPU算力最终会变成像水电煤一样的大宗商品,届时纯粹的算力租赁将面临利润摊薄。Alex并不回避这个问题,但他认为至少目前,算力还远未商品化。在这个行业,即使买了GPU,如果网络服务和稳定性做不好,客户根本没法用。机器坏掉是不会挑日子的,服务品质和集群稳定性本身就是极高的壁垒。

规模同样是壁垒。现在能提供8卡、16卡集群的厂商很多,但能提供单一集群2000卡甚至万卡级别的厂商非常少。随着模型越来越大,客户对大规模集群的需求在增加,行业正在经历一场去芜存菁的洗牌。

为了在红海到来前建立更深的护城河,Alex正在做两件事。一是在全球范围内锁定2027年的电力资源,电力将是数据中心最大的硬约束,公司的规划已经不是看6个月后,而是直接对接电力公司,锁定未来的产能。二是持续构建软件生态,通过深度优化模型,提供比原生平台更快、成本更低的推理服务。

在市场布局上,GMI Cloud采取了差异化策略。公司专注于帮助AI企业出海,提供落地东南亚、日本和北美的算力支持;在中国台湾,推进AI Factory计划,服务本土半导体产业和政府项目;在日本,已经拿下当地第二大电力公司作为客户,组建了本地团队。

对于下一轮融资,Alex透露目标规模是2亿美元,主要用于AI Factory的建设和全球扩容,将集群规模在现有基础上翻两到三倍。

当被问及GMI Cloud的终局时,Alex的回答是:不希望只做一个单纯的算力提供商,那样只会越做越窄。他希望做一个垂直化的AI服务平台,成为全球AI推理领域的技术赋能型生态构建者。

这位29岁的创始人用一个比喻来描述自己的角色定位,当所有人都在淘金的时候,他选择去修那条通往金矿的路。

路修好了,无论谁去挖金子,他都能够受益。

打开网易新闻 查看精彩图片

声明:以上调研结果是商业合作内容,用于调研的部分/全部数据来自合作方和第三方,相关观点及结论均基于以上数据研究得出,不作任何投资指引和参考。

精彩内容

打开网易新闻 查看精彩图片
打开网易新闻 查看精彩图片
打开网易新闻 查看精彩图片