Google 推出 TurboQuant 演算法,將大型语言模型的記憶體占用壓縮至少 6 倍,同时在不犧牲模型準確率的前提下,將推理运算速度提升最高达 8 倍。市场迅速將这項技術解读为「需求側破壞」,背后逻辑相当直接:若 AI 模型在推理階段对記憶體的需求被壓縮數倍,意味著未来资料中心对 DRAM、HBM 甚至 NAND 儲存的需求成长曲線,可能出现結構性下修。
在消息釋出后,記憶體与儲存相关个股出现同步下跌,包括 SanDisk(SNDK)下跌 3.5%、Micron Technology(MU)下跌 3.4%、Western Digital(WDC)下跌 1.63%;亞洲供应链方面,Samsung Electronics 下跌 4.71%,SK Hynix 跌幅更达 6.23%。也有觀点认为,TurboQuant 更可能改變的是「资源使用效率」,而非單純削弱需求。
Google 最新演算法:記憶體用量少六倍、推理速度快八倍
根據 Google 研究團队说明,TurboQuant 是一套針对大型语言模型与向量搜尋系统设计的量化(quantization)演算法,核心在於大幅壓縮 AI 模型中最吃资源的「key-value cache」与高維向量资料結構。在測試中,該技術可將記憶體占用壓縮至少 6 倍,同时在不犧牲模型準確率的前提下,將推理运算速度提升最高达 8 倍。
(輝达 Vera Rubin 有何改變?解析記憶體戰国时代:SK 海力士、三星、美光、SanDisk)
这項突破直接命中当前 AI 基礎设施的关鍵瓶頸。生成式 AI 在算力層的擴展,高度依賴 HBM 等高频寬記憶體,以承載模型權重与大規模 KV cache,避免推理过程記憶體卡死。然而 TurboQuant 透过結合 PolarQuant 与 Quantized Johnson-Lindenstrauss(QJL)等方法,在幾乎「零額外記憶體开销」下完成壓縮,等同於用更少硬體资源完成同樣甚至更高效的运算。
Googlie 演算法衝擊記憶體!美韓記憶體廠普跌
市场迅速將这項技術解读为「需求側破壞」。在消息釋出后,記憶體与儲存相关个股出现同步下跌,包括 SanDisk(SNDK)下跌 3.5%、Micron Technology(MU)下跌 3.4%、Western Digital(WDC)下跌 1.63%;亞洲供应链方面,Samsung Electronics 下跌 4.71%,SK Hynix 跌幅更达 6.23%。
背后逻辑相当直接:若 AI 模型在推理階段对記憶體的需求被壓縮數倍,意味著未来资料中心对 DRAM、HBM 甚至 NAND 儲存的需求成长曲線,可能出现結構性下修。特別是在 AI 产业逐步从「訓練導向」转向「推理導向」的背景下,效率優化技術的边际影響將被放大。
不过,也有觀点认为,TurboQuant 更可能改變的是「资源使用效率」,而非單純削弱需求。随著成本下降与延遲降低,AI 应用场景反而可能进一步擴張,进而帶动總體算力需求持续成长,形成「單位需求下降、總量需求上升」的結構。大型記憶體廠今年的产能都已售完,或許市场要想的是:AI 成长的天花板,究竟有多大?
这篇文章 Google 新技術嚇壞市场,AI 記憶體需求少六倍!SK 海力士、美光同步下殺 最早出现於 链新聞 ABMedia。