打开网易新闻 查看精彩图片

AI模型压缩初创公司Refiant AI今日宣布,已从VoLo Earth Ventures获得500万美元种子轮融资。此次融资旨在终结当前愈演愈烈的数据中心"军备竞赛"——正是这场竞赛催生了规模达数千亿美元的数据中心建设热潮。

Refiant的目标简单却极具野心:说服整个AI行业停止斥资数十亿美元建造高耗能的大型数据中心,转而专注于让模型变得更小、更高效。为此,该公司开发了一套"自然启发"压缩算法,据称可将大多数模型的能耗需求削减80%以上。

这家初创公司认为,当前的AI基础设施建设热潮根本难以为继。亚马逊、微软、谷歌、Meta和甲骨文等科技巨头今年合计承诺投入近7000亿美元用于数据中心建设,与此同时,旺盛的硬件需求已导致内存芯片等关键零部件严重短缺。

之所以出现AI基础设施建设热潮,是因为业界普遍认为,最强大的模型只能在由大规模GPU集群构成的环境中运行。这些集群还需要配备专用的高功耗冷却系统,耗电量极为惊人。

Refiant指出,这一现状导致只有最富有的公司才能托管当今最先进的大语言模型,其他企业则不得不将敏感数据发送至这些科技巨头旗下的云服务器。

该公司认为,这不仅带来了隐私风险,还进一步助长了AI工作负载的低效运作——云计算巨头正从中攫取丰厚利润。此外,随着数据中心的能耗需求逐渐超出电力供应能力,AI行业正快速逼近发展瓶颈。

模型压缩为此提供了一个极具吸引力的解决方案。Refiant的核心竞争力在于其处理模型权重与再训练的独特方式。该公司表示,传统压缩技术不可避免地会牺牲AI模型的智能水平和准确度,为此他们开发了一种模拟生物优化过程的全新数学方法。

联合创始人Viroshan Naicker是一位经验丰富的数学家,长期从事网络与量子系统研究。他认为,从数学角度来看,用少得多的能耗实现强得多的性能是完全可行的。"自然界从不依赖蛮力构建,进化的本质是优化,"他说,"我们将这一原理应用于AI,结果不言而喻。"

Refiant近期的一次演示为上述说法提供了有力佐证:该公司成功将一个1200亿参数的模型压缩后,使其能够在仅配备12GB内存的标准MacBook Pro笔记本电脑上流畅运行。通常情况下,此类模型至少需要80GB的高端显存才能运行。

令人印象深刻的是,压缩过程几乎没有造成任何性能损失。据Naicker介绍,压缩后的模型保留了原始模型95%至99%的精度,每小时可处理约3000个Token,能效比标准数据中心托管同等规模模型的方案高出近100倍。

演示固然亮眼,但Refiant现阶段的目标是证明其数学压缩方法具备规模化落地的可行性。据悉,该公司正与多家希望在本地硬件上自主运行AI模型的科技企业展开洽谈,这些企业希望借此维护数据"主权",并规避云端AI基础设施不断攀升的成本。与此同时,Refiant也在努力将其技术应用于实现更高的压缩比和更长的上下文窗口。

VoLo Earth管理合伙人Joseph Goodman表示:"AI最大的制约不是需求,而是能源。目前缺少的是一种从根本上更高效的计算方式。Refiant的架构以自然启发的高效方案取代了暴力扩展路线,在降低能耗的同时提升了能力。这正是让AI在全球范围内实现可持续发展所需要的突破。"

Q&A

Q1:Refiant AI开发的模型压缩技术原理是什么?

A:Refiant AI的压缩技术核心是一套模拟生物优化过程的数学方法。传统压缩技术通常会牺牲模型的智能水平和准确度,而Refiant的"自然启发"算法通过仿照自然界进化优化的方式处理模型权重与再训练,能够在保留模型95%至99%原始精度的前提下,将能耗需求削减80%以上,无需依赖大规模GPU集群即可运行高参数量模型。

Q2:Refiant AI的压缩技术实际效果怎么样?

A:Refiant AI近期演示了将一个1200亿参数模型压缩后,使其在仅配备12GB内存的标准MacBook Pro上成功运行。正常情况下,该规模模型至少需要80GB高端显存。压缩后模型保留了95%至99%的原始精度,每小时可处理约3000个Token,能效比标准数据中心方案高出近100倍。

Q3:Refiant AI此次融资将用于哪些方向?

A:Refiant AI获得500万美元种子轮融资后,计划将技术应用于更高压缩比和更长上下文窗口的研究,同时正与多家希望在本地硬件上自主运行AI模型的科技企业展开合作洽谈,帮助这些企业摆脱对云端AI基础设施的依赖,降低运营成本并保障数据主权。