
【关系阅读】谷歌一篇论文引爆存储芯片崩盘!AI内存需求暴降6倍,推理狂飙8倍
3月26日,公共存储芯片市集因一篇学术论文而引发张惶。
存储芯片公司股价全线承压。3月26日A股收盘,恒烁股份跌超6%,兆易翻新、佰维存储、朗科科技跌超5%,江波龙、北京君正等个股也纷纷跟跌。3月26日好意思股开盘,存储芯片板块普跌,限度北京时辰22点30分,闪迪跌超6%,好意思光科技与西部数据跌超4%,希捷科技跌超3%。
这场波动的导火索来自一篇由谷歌辩论院行将在外洋学习表征会议(ICLR 2026)上崇拜亮相的学术论文。谷歌推出的新式AI内存压缩本事“TurboQuant”,声称可将大言语模子(LLM)推理中的缓存内存占用压缩至六分之一,并在英伟达H100 GPU上已毕最高8倍的性能加快。
当今,成本市集将其解读为对存储硬件需求的致命一击,但在张惶性抛售背后,永久确凿影响又会若何?
“Pied Piper”走进本质
TurboQuant究竟贬责了什么问题?
刻下大模子运转时的中枢瓶颈之一在于“键值缓存”(KV Cache)。纯粹来说,当用户与AI对话时,模子需要记取之前聊过的内容(险阻文),这部分临时存储的数据即是KV Cache。跟着大模子险阻文窗口从几千Token扩张至百万甚而千万级别,KV Cache对内存的浪费呈指数级增长,成为制约推理成本的裂缝。
记者查阅该论文,TurboQuant骨子上是一种极致的量化压缩算法。传统量化门径需要在压缩精度和突出存储支出之间调解,而谷歌团队通过两项翻新PolarQuant(极坐标量化)和 QJL(量化JL变换)已毕了在“零死亡”的前提下将KV Cache压缩至3-bit精度。
有业内东谈主士将这一突破比作HBO经典好意思剧《硅谷》中那家凭借“无损压缩算法”颠覆行业的臆造创业公司Pied Piper。Cloudflare首席推行官更是将其称为谷歌的“DeepSeek时刻”,觉得其有望像DeepSeek一样,通过极致效力大幅拉低AI的运转成本。
“条目反射”式抛售
对于永久千里浸在“算力即职权”“存力即国力”叙事中的成本市集而言,这项本事的问世无疑震荡了敏锐的神经。
如若单张显卡的内存隐晦效力被成倍放大,各大云办事商和企业客户异日对DRAM和HBM的物理采购量是否会断崖式下滑?这种逻辑推导径直导致了资金的避险活动。
这并非是存储芯片股的初次本事面张惶。2025岁首,DeepSeek发布低熟谙成本模子时,曾经引发市集对算力硬件需求的质疑。TurboQuant被视为消除逻辑的延续。“以软代硬”正在从故事变为本质。
但在科技圈的狂热与二级市集的抛售之间,华尔街投行发扬出一定的平缓。
摩根士丹利在最新研报中明确暗意,市集对此存在误读。该本事仅作用于推理阶段的键值缓存,并不影响模子权重所占用的高带宽内存(HBM),也与AI熟谙任务无关。
分析师强调,所谓的“6倍压缩”也不是存储总需求的减少,而是通过效力提高加多单GPU的隐晦量。这意味着,相易硬件条目下,不错撑抓4倍至8倍更长的险阻文,篮球投注app或在不触发内存溢出的前提下显耀提高批处理限制。
Lynx Equity Strategies的分析师更进一步暗意,媒体报谈存在夸大身分。刻下的推理模子早已平时接收4-bit量化数据,谷歌所谓的“8倍性能提高”是确立在与老旧的32位模子对比的基础之上。
此外,TurboQuant当下的考证范畴相对有限。快想慢想辩论院院长、特邀辩驳员田丰向记者暗意,该本事当今仅在Gemma、Mistral等开源模子上考证,Gemini等谷歌中枢模子的适配恶果尚未公开,本事普适性仍需不雅察。
值得细心的是,压缩KV cache、进行长险阻文优化也并不是全新的本事想路。早在2025年4月,谷歌就曾公拓荒表过TurboQuant的关系论文。
在雷同本事想路上,国内也有关系布局。如月之暗面KimiLinear,在处理长险阻文任务时,相较于传统全细心力模子,KV cache使用可降最多75%;DeepSeek V2无情的MLA门径也可优化KV cache。
杰文斯悖论:效力越高,需求越大?
除了本事细节可能被误读外,还应从经济学视角重估TurboQuant的永久影响。
从供应链视角看,短期内各原厂产能满载。当下,办事器内存需求抓续增长,2026年办事器DRAM需求瞻望增长39%,HBM需求年增58%,TurboQuant的优化恶果或将被行业增长波澜消除。
“这会是杰文斯悖论的又一个例证。”无穷星辰董事长方海声告诉上证报记者,本事效力的提高时时会裁汰使用成本,从而激勉出更繁密的总需求。蒸汽机效力的提高莫得减少煤炭浪费,反而鼓励了煤炭需求的爆发式增长,这一规章在AI时期相同适用。
尽管TurboQuant直击AI系统的内存成本弧线,但历史劝诫标明,压缩算法的存在从未从根柢上转变硬件采购的举座限制。通过大幅裁汰单次查询的办事成本,这类本事能让蓝本只可在慷慨云霄集群上运转的模子挪动至腹地,灵验裁汰AI限制化部署的门槛,从而激活更多因成本受限而无法落地的利用场景。
“推理成本要点将从GPU转向存储优化,鼓励TCO(总领有成本)显耀下落。这也会使中小厂商可进一步参与AI利用翻新,冲突大厂本事壁垒,鼓励AI民主化加快。”田丰暗意。
一篇尚未崇拜发表的论文,引发公共存储芯片板块的剧烈震荡,这自己就足以施展刻下AI基础枢纽投资逻辑的脆弱与敏锐。
限度发稿时,谷歌尚未公布TurboQuant在Gemini等自研模子中的具体部署时辰表。对于该本事的辩论,将在4月的ICLR 2026会议上继续发酵。本报记者将抓续矜恤此事进展。
(著述起首:上海证券报)
海量资讯、精确解读,尽在新浪财经APP
包袱剪辑:张恒星 篮球投注app
澳门十大娱乐平台推荐