打开网易新闻 查看精彩图片
AI数据中心的热管理,正在变成一门比卖卡还急的学问。Epic Microsystems刚完成2100万美元A轮融资,这家名不见经传的公司,专门给超大规模数据中心设计供电架构——说白了,就是让芯片别把自己热死。
创始人团队来自德州仪器和ADI,做的是电源管理芯片的"再上一层"。他们的思路很直接:与其让英伟达GPU拼命散热,不如从供电端砍掉多余热量。据Axios报道,这轮融资由Eclipse Ventures领投,距离公司成立才18个月。
「数据中心的电力浪费,90%发生在最后一英寸。」Epic CEO在融资声明里甩出这句话。这"最后一英寸"指的是芯片到电源板之间的能量损耗,他们的方案能把这部分效率从85%提到95%以上——别小看这10个百分点,放到10万卡集群里,等于每年省出几千万电费。
英伟达不是没做电源管理,但主要押注在液冷和机柜级方案。Epic选的是更上游的战场:直接改芯片的"输血系统"。这种打法绕开了跟巨头的正面交锋,却卡住了所有GPU玩家的刚需。
投资方敢押注,赌的是AI基建的"隐性成本"正在浮出水面。当训练集群从万卡扩到十万卡,散热和供电的边际损耗会被指数级放大——这时候,省10%电就是多10%利润。Epic的客户名单没公开,但业内传闻某头部云厂商已经在测样片。
一位参与尽调的投资人私下吐槽:「这公司PPT里连一张GPU照片都没有,但算账算得比卖卡的还细。」
热门跟贴