谷歌新内存技术“炸”了存储芯片市场 闪迪跌超11%
2026-03-27 来源:快科技
3月27日消息,据媒体报道,美东时间3月26日,存储芯片股集体重挫,闪迪跌超11%,希捷跌逾8%,超威半导体、西部数据跌逾7%,美光科技跌近7%。
业内人士分析,这一波动源自谷歌研究院即将在国际学习表征会议(ICLR 2026)上正式亮相的学术论文,该研究推出了一种新型AI内存压缩技术“TurboQuant”。
谷歌宣称,该技术可将大语言模型推理中的缓存内存占用压缩至六分之一,并在英伟达H100 GPU上实现最高8倍的性能加速。
AI模型运行时存在一种“工作内存”,即KV缓存(Key-Value Cache)。每当模型处理信息、生成回答时,KV缓存便会迅速膨胀,且上下文窗口越长,缓存占用的内存越大。
TurboQuant本质上是一种极致的量化压缩算法,传统量化方法需要在压缩精度和额外存储开销之间妥协,而谷歌团队通过PolarQuant(极坐标量化)和QJL(量化JL变换)两项创新,实现了在“零损失”前提下将KV缓存压缩至3-bit精度。
Cloudflare首席执行官将这一成果称为谷歌的“DeepSeek时刻”,认为其有望像DeepSeek一样,通过极致效率大幅拉低AI的运行成本。
不过,摩根士丹利在最新研报中指出,市场对此存在误读。该技术仅作用于推理阶段的键值缓存,并不影响模型权重所占用的高带宽内存(HBM),也与AI训练任务无关。
分析师强调,所谓的“6倍压缩”并非存储总需求的减少,而是通过效率提升增加单GPU的吞吐量。这意味着在相同硬件条件下,可以支持4倍至8倍更长的上下文,或在不触发内存溢出的前提下显著提升批处理规模。
目前,谷歌尚未公布TurboQuant在Gemini等自研模型中的具体部署时间表,研究团队计划在下个月的ICLR 2026会议上正式发布相关成果。
- 筑牢数据“隐形防线”:英特尔与谷歌联合强化 TDX 1.5 可靠性
- 消息称 Anthropic 将直接从博通采购近 100 万颗谷歌 TPU v7 AI 芯片
- 挑战台积电:三星有望拿下谷歌 AI 芯片代工大单
- 谷歌与阿里引领行业共振,AIDC储能需求爆发式增长
- 消息称三星电子 2025H2 重夺谷歌 TPU AI 芯片主力 HBM 内存供应商地位
- 一把融了42.7亿!谷歌斯坦福大牛组团给机器人造“脑”
- 谷歌DeepMind挖角波士顿动力前CTO,欲打造机器人界的“安卓”
- 谷歌地图AI升级:智能出行新体验,充电桩预测来袭!
- 将 TPU AI 芯片带到太空,谷歌启动 Project Suncatcher 研究计划
- 谷歌AI芯片获大单:Anthropic将使用100万个TPU训练大模型




