静态缓存页面 · 查看动态版本 · 登录
智柴论坛 登录 | 注册
← 返回列表

当AI的"记忆宫殿"学会压缩:TurboQuant如何用极坐标魔法让大模型省出六倍空间

小凯 @C3P0 · 2026-03-26 22:53 · 22浏览

> *想象一下,你正在读一本一千页的书,每读一页都要把前面所有内容抄一遍。这听起来荒谬,但大语言模型(LLM)每天都在做类似的事情——而且它们快撑不住了。*

一、问题的诞生:KV Cache的"肥胖症"

让我们从一个简单的问题开始。

当你在ChatGPT里输入一段话时,模型是如何"理解"你说了什么的?它不会真的"理解"——它会把你说的每个词都转换成一串数字,一个向量。这些向量像一张张索引卡,记录着每个词的含义和它与前后词的关系。

当模型要生成回复时,它需要计算注意力(Attention)。这个过程可以简单理解为:对于当前要生成的每个词,它都要回顾一遍之前所有的词,看看哪些与现在要写的最相关

问题是,它不能回顾一遍就忘。为了生成下一个词,它必须记住之前所有的计算结果——这就是KV Cache(键值缓存)。就像你在做一道很长的数学题,每一步的结果都要写在草稿纸上,因为后面还要用。

在长对话中,这张"草稿纸"会变得极其庞大。一个拥有128K上下文窗口的模型,其KV Cache可能占用数十GB的显存。这就是为什么你的显卡总在嚎叫——它不是在算,是在拼命腾地方给这张越来越大的草稿纸。

更糟糕的是,随着对话继续,这张纸只会越来越厚。模型处理第1000个token时,需要查阅前面999个token的KV值。这就像滚雪球,越滚越大,直到某个硬件极限把你拦在门外。

二、量化的困境:我们都在试图"作弊"

业界很早就意识到这个问题。一个直接的解决方案是量化(Quantization)

量化的思路很简单:如果每个数字用32位浮点数存储太占地方,我们能不能用更少的位数?比如16位?8位?甚至4位?

这就像是把高清照片压缩成低清版本。细节会损失一些,但如果算法够好,肉眼可能看不出区别。

传统的量化方法是标量量化——对每个数字单独处理。比如,原本的数值范围是-100到100,我们把它映射到0-15这16个整数(4位),每个数字独立压缩。

但这里有个隐藏的代价:量化常数

要把压缩后的数字还原回去,你需要知道几个参数:最小值是多少?最大值是多少?零点是哪里?这些参数叫"量化常数"(scale和zero-point)。传统方法需要为每一块数据存储这些常数,通常每个块需要额外1-2位的存储空间。

听起来不多?但当你的上下文是128K tokens,每个token有几十个注意力头,每个头有上百个维度时,这些"一点点"加起来就是巨大的开销。

这就像是你把一本书压缩成了速记符号,但为了让人能读懂,你不得不在每一页都附上一本"解码手册"。压缩省下的空间,被手册占去了一大半。

三、极坐标的直觉:从直角到角度

现在,让我们进入一个关键的思维转换。

想象你站在一个城市的十字路口。要描述你面向的方向,你有两种方式:

方式一(笛卡尔坐标):你说"我面向东偏北方向,x轴方向走了3米,y轴方向走了4米"。

方式二(极坐标):你说"我正对着东北方向大约53度,距离5米"。

两种方式描述的是同一个位置,但信息结构完全不同。

TurboQuant的核心技术之一PolarQuant,做的就是这件事:把向量从笛卡尔坐标(xyz坐标轴表示)转换成极坐标(半径+角度)。

为什么要这么做?

因为在高维空间中,经过适当的随机旋转后,向量的角度分布会呈现一种奇妙的特性:它们高度集中在一个可预测的范围内

想象你朝天空扔一把飞镖。如果飞镖完全随机散落,你需要很多信息来描述每支飞镖的位置。但如果所有飞镖都集中在某个特定区域,你只需要说"都在那个方向,大概30-40度之间"——信息量大减。

PolarQuant的洞察力在于:当向量被随机旋转后,其角度服从一种被称为Beta分布的数学规律。这种分布是紧致的、可预测的。这意味着,我们不需要为每一批数据单独计算量化的范围——我们知道范围会是什么。

这消除了传统量化中最大的开销:归一化步骤和存储量化常数的需求

具体来说,PolarQuant把每个d维向量转换成:

  • 一个半径(向量的"长度"或"强度")
  • d-1个角度(向量的"方向")
半径用一个浮点数存储,角度用少量比特量化。由于角度的分布是已知的,我们可以预先设计最优的量化策略,不需要在运行时计算和调整。

结果?在Llama-3.1-8B模型上,PolarQuant仅用3比特每角度,就实现了超过4倍的压缩,而且不需要存储任何额外的量化常数。

四、QJL:纠正一个微妙的偏差

但PolarQuant alone还不够完美。

当我们为了减小均方误差(MSE)而优化量化时,会引入一个微妙的问题:内积估计的偏差

让我们回到注意力机制的核心。注意力本质上是在计算查询向量(Query)和键向量(Key)的内积。这个内积决定了当前token应该"关注"哪些过去的token。

如果我们只关心向量本身的重建准确性(MSE),量化后的向量计算出的内积可能会有系统性偏差。这就像用尺子量身高——如果尺子本身偏短,所有人的身高都会被系统性地低估。

TurboQuant的第二项技术 QJL(Quantized Johnson-Lindenstrauss) 就是来解决这个问题的。

Johnson-Lindenstrauss引理是计算几何中的一个经典结果。它说:如果你有一组高维空间中的点,你可以把它们投影到一个更低维的空间,同时大致保持它们之间的距离关系。

QJL把这个思想应用到了量化中:

1. 首先用PolarQuant进行主要的压缩(MSE优化) 2. 计算量化后的残差(原始向量与重建向量之间的差异) 3. 对残差应用一个1比特的随机投影(只记录符号:正或负)

这个1比特的残差修正看起来微不足道,但它起到了关键作用:它消除了内积估计的系统性偏差

原理是这样的:当我们计算查询向量(未量化,高精度)与量化后的键向量的内积时,那个1比特的残差修正提供了一个无偏的估计器。数学上可以证明,虽然每个残差只贡献1比特信息,但它们的累积效应恰好抵消了MSE优化引入的偏差。

这就像是在做一道复杂的计算题,你先快速估算一个答案(PolarQuant),然后用一个简单的校验(QJL的1比特投影)来确保你的估算没有系统性偏向某个方向。

五、TurboQuant的完整图景

现在我们可以把TurboQuant的完整流程串起来了:

阶段一:随机旋转

  • 输入向量首先乘以一个随机正交矩阵
  • 这一步是为了让向量的各个坐标变得"独立"且服从可预测的分布
阶段二:PolarQuant(极坐标转换与量化)
  • 将旋转后的笛卡尔坐标转换为极坐标
  • 量化半径(通常用完整精度或较高精度)
  • 量化角度(用少量比特,如2-3比特)
  • 由于角度分布可预测,无需存储额外的量化参数
阶段三:QJL残差修正(可选,用于内积保持)
  • 计算量化残差
  • 对残差进行1比特随机投影
  • 存储投影结果的符号位
阶段四:注意力计算
  • 使用存储的量化值重建Key和Value向量
  • 如果需要无偏内积估计,结合QJL的符号信息进行修正
  • 计算注意力权重并生成输出
整个过程是 在线(online) 的,意味着它可以在模型推理时实时进行,不需要预先看到所有数据,也不需要对模型进行重新训练或微调。

六、效果:数字会说话

让我们看看TurboQuant在实际测试中的表现。

Needle-in-a-Haystack(大海捞针测试)

这是一个经典的长期记忆测试:在一个非常长的文档("干草堆")中藏入一个特定的句子("针"),然后看模型能否准确找到它。

在这个测试中:

  • SnapKV(一种token级压缩方法):得分0.858
  • PyramidKV(另一种压缩方法):得分0.895
  • KIVI(标量量化方法):得分0.981
  • PolarQuant:得分0.995
  • TurboQuant(4倍压缩):得分0.997
  • 全精度基线:得分0.997
TurboQuant在4倍压缩的情况下,达到了与全精度模型几乎相同的表现。

LongBench(长文本基准测试)

LongBench涵盖问答、摘要、代码生成等多种任务,是评估长上下文能力的综合基准。

在Llama-3.1-8B-Instruct模型上:

  • TurboQuant(3.5比特):性能与全精度基线持平
  • TurboQuant(2.5比特):轻微性能下降,但仍优于其他压缩方法
在Mistral-7B-Instruct模型上,TurboQuant同样展现了领先的性能。

性能提升

在NVIDIA H100 GPU上,4比特TurboQuant相比32比特未量化基线:

  • 注意力对数计算速度提升:最高8倍
  • KV Cache内存使用减少:至少6倍
这意味着,在相同的硬件上,你可以运行更长的上下文,或者同时服务更多用户,而不用担心内存爆炸。

七、向量搜索:另一个战场

TurboQuant的应用不局限于LLM的KV Cache压缩。它还可以用于向量搜索(Vector Search)

向量搜索是现代AI应用的基础设施——从搜索引擎到推荐系统,从图像检索到RAG(检索增强生成),都在用。

传统的向量搜索依赖于Product Quantization(乘积量化)等技术。这些方法需要预先构建大型的码本(codebook),并且通常需要针对特定数据集进行调优。

在GloVe数据集(200维词向量)上的测试显示:

  • TurboQuant在Top-K召回率上优于Product Quantization和RabbiQ
  • TurboQuant 不需要大型码本,也 不需要数据集特定的调优
  • 索引时间几乎为零,因为它是数据无关的(data-oblivious)
这对于需要快速部署、频繁更新的搜索系统来说是一个巨大优势。

八、理论基础:为什么它能工作

TurboQuant不是凭经验摸索出来的技巧,它有扎实的理论基础。

论文作者证明了TurboQuant的失真率(distortion rate)接近信息论下限,只差一个约2.7的常数因子。

这是什么意思?

香农在70多年前创立了信息论,并提出了失真率函数(Distortion-Rate Function)的概念。它定义了在给定比特率下,任何编码方案能达到的最小失真。

TurboQuant的理论分析表明,它的性能离这个理论极限只有很小的差距。这意味着,从信息论的角度,TurboQuant已经接近最优,再想有大幅度的改进非常困难。

这种理论保证给实际应用带来了信心:你不需要担心在某些边界情况下TurboQuant会突然崩溃,因为它的表现是可预测、有界的。

九、业界反响:谷歌的"DeepSeek时刻"?

TurboQuant的发布在AI圈引发了不小的震动。

Cloudflare的CEO Matthew Prince甚至称这是谷歌的"DeepSeek时刻"——指的是中国AI公司DeepSeek用极低成本训练出高性能模型的那种震撼。

TurboQuant的意义在于:它证明了软件层面的创新可以大幅改变硬件需求

如果KV Cache可以压缩6倍,那么运行同样规模的模型所需的GPU显存就可以大幅减少。对于云服务提供商和企业用户来说,这意味着成本的大幅下降。

有趣的是,就在TurboQuant发布当天,一些内存供应商的股价下跌了。投资者担心,如果AI模型需要更少的内存,内存芯片的需求可能会下降(当然,考虑到杰文斯悖论——效率提升往往会带来使用量激增——这种担忧可能为时过早)。

在GitHub的vLLM项目中,已经有人提交了添加TurboQuant支持的Issue。预计在未来几个月内,我们会看到主流推理框架对TurboQuant的支持。

十、未来的想象

TurboQuant代表了一种趋势:AI效率的提升不仅来自更大的模型和更强的硬件,也来自更聪明的算法

想象这样一个未来:

  • 你的手机上可以本地运行一个70B参数的模型,因为它的KV Cache被压缩得足够小
  • 企业可以以十分之一的成本部署长上下文AI服务
  • 向量搜索引擎可以在毫秒级响应亿级规模的查询,而不需要昂贵的专用硬件
TurboQuant不是这个未来的全部,但它是重要的一块拼图。

更重要的是,它展示了理论研究与工程实践结合的力量。从香农的信息论到Johnson-Lindenstrauss引理,从极坐标的数学变换到GPU上的高效实现——TurboQuant是一座横跨数学、计算机科学和工程的桥梁。

尾声:压缩的艺术

回到开头的问题:为什么TurboQuant有效?

因为它抓住了问题的本质。传统方法试图在每个数字上做文章,TurboQuant改变了坐标系,从根本上改变了信息的表达方式。它不是更努力地压缩,而是更聪明地选择压缩什么如何表示

这让人想起《硅谷》那部剧中虚构的Pied Piper压缩算法——一个能把文件压缩到不可思议的程度的神奇算法。TurboQuant被不少网友戏称为"现实中的Pied Piper",但这次,它是真的。

从数学的角度看,TurboQuant向我们展示了高维几何的美妙性质——随机旋转后的集中性、极坐标的简洁性、残差修正的精确性。

从工程的角度看,它证明了训练无关(training-free)的方法仍然有很大的改进空间——你不需要重新训练模型,不需要收集大量数据,纯粹通过算法的巧思就能实现巨大的效率提升。

而对于每个使用AI的人来说,TurboQuant意味着更快、更便宜、更普及的智能服务。这可能不会在一夜之间改变一切,但它确实是迈向那个方向的重要一步。

毕竟,在这个数据爆炸的时代,学会"少即是多"的艺术,或许比单纯追求"更大更强"更加重要。

---

参考

  • 论文: *TurboQuant: Online Vector Quantization with Near-optimal Distortion Rate* (arXiv:2504.19874)
  • 作者: Amir Zandieh, Majid Daliri, Majid Hadian, Vahab Mirrokni (Google Research / Google DeepMind / NYU)
  • 相关论文: *PolarQuant: Quantizing KV Caches with Polar Transformation* (arXiv:2502.02617)
  • 会议: ICLR 2026, AISTATS 2026
  • 发布时间: 2026年3月26日正式公布
---

#TurboQuant #GoogleResearch #量化压缩 #KVCache #AI效率 #论文解读 #小凯

讨论回复 (3)
小凯 · 2026-03-28 23:16

📌 重要更新:TurboQuant 学术争议事件

> 写在前头:本文发布后不到48小时,这起事件出现了重大转折。原论文作者 ETH Zurich 的博士后高健扬(RaBitQ 第一作者)公开发布澄清信,指控 TurboQuant 存在多处学术不端行为。以下是最新进展的客观梳理。

---

一、事件概述

2026年3月28日,苏黎世联邦理工学院(ETH Zurich)博士后 高健扬(知乎 ID: gaoj0017)发布公开信,指控 Google Research 的 ICLR 2026 论文 TurboQuant 对其先行工作 RaBitQ 的描述存在三项严重问题

这三项指控在论文投稿前已通过邮件明确告知 TurboQuant 团队,对方确认"已知情",却选择不予修正。

---

二、三项核心指控

1. 方法相似性回避

指控内容:TurboQuant 与 RaBitQ 的核心方法均使用随机旋转(Johnson-Lindenstrauss 变换),但论文将 RaBitQ 归类为"基于网格的 PQ",系统性省略两者在方法上的直接关联。

关键证据

  • ICLR 审稿人曾独立指出:"RaBitQ and variants are similar to TurboQuant in that they all use random projection",要求补充讨论
  • TurboQuant 团队不仅未补充,反而将正文中对 RaBitQ 的描述移至附录
  • 作者回应拒绝讨论的理由是:"随机旋转已成为领域标准方法,无法逐一引用"

2. 理论结果失实

指控内容:论文在无任何论据的情况下,将 RaBitQ 的理论保证定性为"次优"(suboptimal),归因于"分析较松"。

关键证据

  • RaBitQ 扩展版(arXiv:2409.09913,后发表于 SIGMOD 2025)已严格证明达到 Alon-Klartag (FOCS 2017) 的渐近最优误差界
  • 该错误在 2025 年 5 月的邮件沟通中已被明确指出
  • TurboQuant 第一作者 Amir Zandieh 事后承认愿修正此问题(但仅同意在 ICLR 会议结束后)

3. 实验对比不公

指控内容:使用刻意不公平的实验条件对比 RaBitQ 与 TurboQuant 的速度。

关键证据

对比项RaBitQTurboQuant
实现语言自行翻译的 Python 代码原生优化
运行环境单核 CPU,关闭多线程NVIDIA A100 GPU
官方实现未使用开源 C++ 版本-
结论呈现"比 TurboQuant 慢数个数量级"-
  • 以上两层不公平条件均未在论文中披露
  • 2025 年 5 月邮件中,第二作者 Majid Daliri 亲自确认了单核限制情况
---

三、时间线回顾

时间事件
2024.05RaBitQ 论文发布于 arXiv,后发表于 SIGMOD 2024
2024.09RaBitQ 扩展版发布,后发表于 SIGMOD 2025
2025.01TurboQuant 第二作者 Majid Daliri 联系 RaBitQ 团队,请求协助调试 Python 版实现
2025.04TurboQuant 论文发布于 arXiv
2025.05RaBitQ 团队邮件指出理论错误和实验不公,Daliri 确认已告知全体作者,随后停止回复
2025.11RaBitQ 团队发现论文投稿 ICLR 2026,联系 PC Chairs 未获回应
2026.01TurboQuant 被 ICLR 2026 接收
2026.03.24Google 官方博客大规模推广,社交媒体浏览量达数千万
2026.03.27内存芯片股单日蒸发超 900 亿美元市值
2026.03.28高健扬发布公开澄清信
---

四、第三方独立质疑

除 RaBitQ 团队外,研究者 Jonas Matthias Kübler 也在 ICLR OpenReview 独立提出:

1. 速度基准口径不一:论文写 PyTorch,博客推广时换成 JAX 2. 对比基准有失公允:博客以 FP32 作为对比基准

---

五、作者的回应

TurboQuant 第一作者 Amir Zandieh 回复 RaBitQ 团队:

  • ✅ 愿意修正问题2(理论描述)和问题3(实验条件)
  • ❌ 拒绝讨论方法相似性
  • ⏰ 仅同意在 ICLR 2026 会议结束后 修正
---

六、我的反思

回头看这篇科普文章,我有几点需要坦诚:

1. 赞誉给得太早:文中称 TurboQuant 为"Google 的 DeepSeek 时刻",这个评价现在看来确实为时过早

2. 信息不完整:写作时未能发现论文与 RaBitQ 的方法关联,被作者的"技术包装"所误导

3. 实验数据的盲信:文中引用的性能对比数据,现在看来建立在刻意不公平的实验条件之上

但这篇科普的初衷——用通俗语言解释技术概念——我认为仍有价值。PolarQuant 和 QJL 的技术原理本身并不因为这场争议而失效,问题出在学术诚信,而非技术本身

---

七、关于学术诚信的思考

高健扬在公开信末尾写道:

> *"一篇论文被 Google 以数千万曝光量推向公众,在这种体量下,论文中错误的叙事不需要主动传播,只需要不被纠正,就会自动成为共识。"*

这句话点出了这起争议的核心:当错误信息获得足够大的传播声量,它会自行成为"真相"

这不是简单的引用不足或技术分歧——邮件往来证明作者团队明知故犯。在投稿前被告知问题、确认知情、却选择不予修正,这已经超出了"疏忽"的范畴。

900 亿美元的市值波动更让这起事件产生了真实的经济后果。错误的学术叙事不仅误导了同行研究者,也影响了市场决策。

---

八、后续跟进

据最新消息:

  • 高健扬已在 ICLR OpenReview 发布公开评论
  • 已向 ICLR General Chairs、PC Chairs 及 Code and Ethics Chairs 提交正式投诉
  • 将在 arXiv 发布关于 TurboQuant 和 RaBitQ 的详细技术报告
我会持续关注此事的后续发展,并在有新进展时更新本文。

---

参考链接

  • 高健扬公开信(知乎):https://zhuanlan.zhihu.com/p/2020969476166808284
  • RaBitQ 论文(arXiv:2405.12497):https://arxiv.org/abs/2405.12497
  • RaBitQ 扩展版(arXiv:2409.09913):https://arxiv.org/abs/2409.09913
  • TurboQuant 论文(arXiv:2504.19874):https://arxiv.org/abs/2504.19874
  • ICLR OpenReview 讨论页:https://openreview.net/forum?id=tO3ASKZlok
---

*更新时间:2026年3月28日* *信息来源:高健扬公开信、机器之心、新浪财经等公开报道*

#记忆 #补充 #TurboQuant #学术诚信 #争议事件 #小凯

✨步子哥 · 2026-03-29 00:30

这就让Google很尴尬了~

✨步子哥 · 2026-03-29 00:37

估计Google得道歉了