打开网易新闻 查看精彩图片

新智元报道

编辑:好困 Aeneas

【新智元导读】把闪存股一夜干崩的谷歌顶会论文,出大事了。TurboQuant的核心方法,两年前就被一位华人学者做完、发完顶会、代码全部开源了。谷歌不仅没正面提及,而且还恶意操纵实验数据把成果贬成「次优」,即使收到邮件也拒不改正,这就是大科技公司赤裸裸的学术霸凌!

就在刚刚,谷歌塌房了!

前几天,谷歌一篇即将在ICLR 2026亮相的新论文,直接把存储巨头美光和西部数据的股价干崩了。

Cloudflare CEO激动地发推称:「这是谷歌的DeepSeek时刻!」

打开网易新闻 查看精彩图片
打开网易新闻 查看精彩图片

就在AI圈沉浸在兴奋中,全世界都在为这篇论文欢呼之时,谷歌居然火速塌房了。

3月27日晚上10点,一条推文打破了狂欢。

苏黎世联邦理工学院博士后,RaBitQ算法的第一作者高健扬公开表示:

TurboQuant论文在描述RaBitQ时存在严重问题,包括不正确的技术声明和误导性的理论、实验对比——而这些问题在投稿前就已向作者指出,对方承认了,但选择不修正。

翻译过来就是,谷歌的这篇论文,不仅抄袭了他们的核心代码,还强行拉踩!

打开网易新闻 查看精彩图片
打开网易新闻 查看精彩图片

具体来说,TurboQuant在核心方法(随机旋转)上与高健扬此前已发表的RaBitQ高度相似,但谷歌不仅未在正文中客观探讨,还在明知故犯的情况下,将RaBitQ的理论结果贬低为「次优」。

而且,根据披露的邮件记录,TurboQuant团队早在一年前就被私下告知了这些问题,但从未修正。

打开网易新闻 查看精彩图片

原文地址:https://zhuanlan.zhihu.com/p/2020969476166808284?wechatShare=1&s_r=0

文章发布几小时后,各大平台的评论区里,全是网友们对谷歌激动地声讨。

打开网易新闻 查看精彩图片

对于RaBitQ,高健扬已经做了两年研究,发表了两篇顶会,而且代码全部开源。

然而现在,谷歌转手就把他的成果「重新发明」了一遍,还荣登顶会,获得全行业的称赞。

这简直就是利用大厂光环歪曲事实的学术霸权行为!

谷歌的吃相太难看了

这次学术争端,核心思路集中在向量量化上。

向量量化,就是把高维空间里的向量「压小」,在尽量不丢失信息的前提下省内存、省计算。此问题可以追溯到香农的信源编码理论,是信息论里最经典的问题之一。

早在2024年5月,高健扬团队就在arXiv上发布了RaBitQ。

打开网易新闻 查看精彩图片

论文地址:https://arxiv.org/abs/2405.12497

他们的核心思路是:

在量化之前,先对向量做一次随机旋转(Johnson-Lindenstrauss变换)。旋转之后,向量每个坐标的分布变得可预测,就可以用更高效的方式做量化。

虽然想法看起来很简洁,但背后的理论工作却很扎实。

在24年9月,团队又发表了扩展版论文,严格证明了这种方法达到了理论计算机顶级会议FOCS 2017给出的渐近最优误差界。

因此,高健扬被邀请到FOCS的Workshop做报告。随后,RaBitQ先后发表在数据库领域顶会SIGMOD 2024和SIGMOD 2025上,代码全部开源。

谁能想到,这居然给谷歌的研究者们提供了方便。

他们这次发表的TurboQuant,核心也是随机旋转+向量量化,这不就是RaBitQ在2024年5月就公开发表的核心架构吗?

可以说,谷歌,这就是在赤裸裸地抄袭

打开网易新闻 查看精彩图片

谷歌这篇论文,已经被称赞为「彻底改变AI格局」了

一封邮件,三个质疑,全部「已读不回」

有人问,是不是这次谷歌只是漏引了一篇论文?

了解事件详情后就会发现,谷歌的行为,比这要严重得多,恶劣得多!

打开网易新闻 查看精彩图片
打开网易新闻 查看精彩图片

第一,谷歌剽窃了他们的核心方法,假装没看见。

谷歌在TurboQuant论文中,反复强调随机旋转是自己方法的关键步骤,但在描述RaBitQ时,只把它归类为「grid-based PQ」(基于网格的乘积量化),完全跳过了RaBitQ中同样核心的随机旋转步骤。

因此在读者看来,RaBitQ仿佛是一个跟TurboQuant毫无关系的旧方法一样。

然而,谷歌真的不知道RaBitQ用了随机旋转吗?绝不可能!

审稿过程中,Reviewer Autm问了一个直球问题:「随机旋转是你们论文首创的吗?」

TurboQuant作者在rebuttal中白纸黑字地回复:

The use of random rotation has been explored before (see references like Quarot, RabitQ, QJL, etc).

(随机旋转的使用此前已有探索,参见Quarot、RabitQ、QJL等工作。)

所以很显然,谷歌承认是RaBitQ先用了随机旋转,他们并不是首创,然而在论文正文里,他们却对此只字不提。

这个鸡贼的做法,不止一位审稿人注意到了。

比如给出10分满分(strong accept)的Reviewer WFrV就直接明示了这一点,建议谷歌作者在论文终稿里承认RaBitQ的地位。

RaBitQ and variants are similar to TurboQuant in that they all use random projection。

(RaBitQ及其变体与TurboQuant相似,都使用了随机投影。)

I strongly encourage the authors to add these experiments in the final version of the paper.

(我强烈建议作者在终稿中加入这些实验。)

结果,谷歌的终稿出来之后,不仅没有加入讨论,还把正文中对RaBitQ仅有的(还不完整的)描述,挪到了附录里,这个做法简直要把人气笑了。

2026年3月,高健扬团队正式致信TurboQuant全体作者要求纠正。

TurboQuant第一作者Amir Zandieh回了一句:

随机旋转和JL变换已经是领域里的标准技术了,我们不可能引用每一个用到它们的方法。

简直让人无语了。

第二,说别人的理论是「次优」,但证据呢?

TurboQuant论文中有这样一句话:

While the paper's theoretical guarantees are suboptimal, likely due to loose analysis — as practical performance surpasses theoretical bounds.

翻译过来:RaBitQ的理论保证是次优的,很可能是因为分析太粗糙了。

然而真实情况是,RaBitQ扩展版的Theorem 3.2已经严格证明,其误差界匹配FOCS 2017给出的渐近最优界。

也正是因为这个事实,他们才被邀请到FOCS去做Workshop报告。

2025年5月,高健扬团队通过邮件与TurboQuant二作Majid Daliri进行了多轮详细技术讨论,逐条解释了为什么RaBitQ的理论保证是最优的。

Daliri在邮件中明确表示,已将讨论内容告知全体共同作者。

然而,实际上他们什么都没做。

华人学者辛辛苦苦花了两年证明的最优性定理,被人一句「suboptimal, likely due to loose analysis」就否定了。

第三,绑住别人的手,再说自己跑得快。

TurboQuant论文报告RaBitQ的量化速度比TurboQuant慢了「数个数量级」。

然而这个计算方法,没有任何公平可言。

Daliri在2025年5月的邮件中承认了,他们测试RaBitQ时用的是自己翻译的Python版本(而非官方开源的高度优化的C++实现),并且关闭了多线程,在单核CPU上跑。而TurboQuant用的则是英伟达的A100 GPU。

但问题是,RaBitQ的官方代码2024年5月就开源了,默认是多线程并行。

而且,Daliri在2025年1月的邮件中就已经表示自己成功跑通了RaBitQ的C++代码。

他知道官方实现有多快。但最终论文里用来做对比的,仍然是他自己翻译的、运行在单核CPU上的Python版本。

用Python单核CPU去跟A100 GPU对比,仿佛就是把对手的鞋带绑在一起,再跟他赛跑,最后在论文中得出:我们快了好几个数量级。

打开网易新闻 查看精彩图片

不仅如此,TurboQuant的论文还被发现漏洞百出!

3月26日,研究者Jonas Matthias Kübler在OpenReview上发布公开评论,对TurboQuant的实验方法提出了多个具体质疑:

  • 速度对比的baseline是FP32精度,但现实中没有框架会用32位存KV缓存,这让「8倍加速」的说法很不实在;

  • 速度baseline在论文正文里写的是PyTorch einsum,到了博客里又变成了JAX;

  • 更耐人寻味的是,Llama模型2.5bit配置的LongBench分数,从arXiv版本的49.44变成了ICLR版本的49.74,差距缩小了50%,但论文没有说明做了什么改动。

打开网易新闻 查看精彩图片

总之,如果回顾完整的时间线,就会发现,谷歌的论文作者根本不是粗心,不是疏忽,每一步都有人提醒,每一步都被选择性忽略了。

先把蛋糕吃完,再讨论蛋糕是不是你的。

数千万人看到的叙事,是错的

现在,一边是中国博士后,两年研究,两篇顶会,代码全部开源。另一边是Google Research,一篇博客,数千万曝光,存储股跌停。

如果没有人纠正,RaBitQ就会被记录为一个「次优的、很慢的」老方法,TurboQuant就是「从零开始、全面超越」的新突破。

历史就是这么被改写的。

在Hacker News上,NeurIPS 2021论文DRIVE的作者也站出来了——同样使用了随机旋转+偏差校正框架,同样曾被Google邀请做内部报告,同样没有被TurboQuant引用。

这不是一两个人的遭遇。

错误的学术叙事一旦广泛传播,纠正的成本会越来越高。

在数千万曝光面前,这个声音很小。

但是,必须有人发声。

参考资料:

https://x.com/gaoj0017/status/2037532673812443214

https://www.linkedin.com/feed/update/urn:li:activity:7443322114301956096/?originTrackingId=Vc0dkeibHUvsvZ4FSE0Tdw%3D%3D

https://zhuanlan.zhihu.com/p/2020969476166808284?utm_medium=social&utm_psn=2020975962079118879&utm_source=wechat_timeline&wechatShare=1&s_r=0

https://openreview.net/forum?id=tO3ASKZlok