IT之家 昨天
谷歌TurboQuant算法遭质疑,中国博士后指其论文存在严重问题
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_keji1.html

 

IT 之家 3 月 28 日消息,谷歌研究院 3 月 25 日推出全新极端压缩算法 TurboQuant,有望重塑 AI 运行效率并解决大模型键值缓存(KV Cache)的内存瓶颈,据称可以使 AI 内存占用锐降至 1/6、推理狂飙 8 倍。

然而,3 月 27 日晚上 10 点,苏黎世联邦理工学院博士后、RaBitQ 算法的第一作者高健扬公开表示:"TurboQuant 论文在描述 RaBitQ 时存在严重问题,包括不正确的技术声明和误导性的理论、实验对比 —— 而这些问题在投稿前就已向作者指出,对方承认了,但选择不修正。"

IT 之家注意到,他还表示,TurboQuant 在三个方面误传了 RaBitQ:

避免承认关键方法论上的相似性 ( JL 变换 )

在没有任何证据的情况下称我们的理论为 " 次优 "

在不公平的实验设置下报告结果

高健扬指出,团队在作者提交论文之前就向其表达了担忧,但他们选择不在提交的论文中修正这些问题。该论文已被 ICLR2026 接收,并受到了谷歌的大力推广(浏览量达数千万次)。在这样的传播规模下,未经修正的言论很快就会变成所谓的 " 共识 "。

他进一步指出未披露事项:

RaBitQ 已经证明了渐近最优性 ( FOCS'17 界限 )

TurboQuant 使用了相同的随机旋转步骤,但未说明其中的联系

他们的实验在 RaBitQ 上使用的是单核 CPU,而在 TurboQuant 上使用的是 A100 GPU。

最后,高健扬表示已提交正式投诉。

宙世代

宙世代

ZAKER旗下Web3.0元宇宙平台

一起剪

一起剪

ZAKER旗下免费视频剪辑工具

相关标签

谷歌 高健 ai it之家 苏黎世联邦理工学院
相关文章
评论
没有更多评论了
取消

登录后才可以发布评论哦

打开小程序可以发布评论哦

12 我来说两句…
打开 ZAKER 参与讨论