• 全部
  • 产业
  • Web 3.0
  • DAO
  • DeFi
  • 符文
  • 空投再质押
  • 以太坊
  • Meme
  • 比特币L2
  • 以太坊L2
  • 研报
  • 头条
  • 投资

免责声明:内容不构成买卖依据,投资有风险,入市需谨慎!

谷歌发布"TurboQuant"引发存储芯片股暴跌

2026-03-26 19:48:29
收藏

首尔亦难幸免——三星与SK海力士双双暴跌

2026年3月26日,冲击并未止步于华尔街。在首尔股市,市值分居KOSPI指数第一、第二位的三星电子与SK海力士同步暴跌,拖累大盘整体下行。

截至下午12时23分,KOSPI指数较前一交易日下跌163.58点(2.90%),收于5278.63点。SK海力士股价下跌5.63%至93.9万韩元,三星电子下跌4.55%至18.04万韩元。

韩国证券机构迅速指出了下跌原因。未来资产证券研究员徐相英分析称:“自谷歌发布TurboQuant技术后,市场对数据中心所用的DRAM与NAND等存储器需求放缓的忧虑加剧,美光股价下跌的余波持续扩散。三星电子与SK海力士随之走低,主导了KOSPI指数的下行。”

一日之内震撼存储器行业的“TurboQuant”

这场冲击的源头,是谷歌研究团队于前一日(当地时间3月24日)公开的一篇论文。这项名为“TurboQuant”的算法,声称能显著消除大型语言模型及向量搜索引擎在推理过程中出现的内存瓶颈。其核心主张明确:在将AI模型内存压缩至六分之一的同时保持精度无损,并能在相同GPU上实现8倍的推理速度。

KIWOOM证券研究员韩智英解释道:“TurboQuant公开后,市场形成了一种负面预期——由于相同内存可处理6倍长的对话,存储器需求或许低于此前预期。”但他同时指出:“目前仅是论文层面的算法公开,距离实际商用仍需时间。此外,在年初存储器暴涨行情后的市场疲劳尚未完全消散的背景下,这可能也成为了投资者进行额外获利了结的一个理由。”

TurboQuant技术解析

TurboQuant所针对的并非AI模型的“权重”,而是在对话过程中模型为处理中间运算结果而需存储的“键值缓存”。随着上下文窗口扩展至数百万令牌的规模,这种键值缓存已侵蚀了每会话数百GB的GPU内存,这构成了迄今为止AI推理的真正瓶颈。

谷歌研究提出的替代方案是“PolarQuant”。这是一种简化数据几何结构的技术,类似于将连续的小数表示为整数。为保持精度,研究团队应用了量化约翰逊-林登斯特劳斯变换技术,在保留原始数据与压缩数据间差异的同时,将每个结果向量表示为+1或-1的符号位,从而将内存占用降至最低。

谷歌表示,在将此项技术应用于Gemma、Mistral等开源AI模型后,在绝大部分数据得以保留的情况下,成功将键值缓存容量缩减至原来的六分之一。通过4位TurboQuant,更使英伟达H100 GPU的性能提升了8倍。

关键区别在于:与DeepSeek需从头重新设计模型架构以提升效率不同,TurboQuant完全无需重新训练或微调,可直接插入现有推理流程中。

社区验证——“确实有效”

谷歌研究的官方发布在社交平台X上获得了超过770万次浏览,引发爆炸性反响。技术分析师@Prince_Canuma已将TurboQuant移植至适用于Apple Silicon的本地AI库MLX,并对Qwen3.5-35B模型进行了直接测试。结果显示,在8500至64000令牌的上下文长度范围内,无论量化水平如何,输出结果均保持100%准确。应用2.5位TurboQuant后,键值缓存减少约五倍,且精度无损。

Cloudflare首席执行官马修·普林斯对此评论道:“TurboQuant是谷歌的DeepSeek时刻。”他分析认为:“这为优化AI推理速度、内存占用及功耗等领域开辟了更大空间。”

市场冲击的逻辑——存储器股票为何暴跌

逻辑简单而冷酷:如果AI推理所需内存降至六分之一,那么此前以AI需求激增为由控制供应、推高价格的三星电子、SK海力士、美光等公司的盈利前景将遭受直接打击。

自去年10月以来,随着AI推理内存瓶颈问题凸显,DDR价格在三个月内飙升最高达7倍。在被称为“存储器卡特尔”的寡头供应结构下,主要厂商曾以需求为由,表态在2027年前将推迟扩大新产能。

然而TurboQuant的出现改变了这一格局。AI企业仅通过软件即可在现有GPU上使用更少内存。更重要的是,这“仅仅是个开始”。若谷歌已实现此等效率,那么进一步的优化及竞争算法的出现,几乎必将使效率进一步提升。

对韩国股市及KOSPI的潜在影响

考虑到三星电子与SK海力士在KOSPI指数中所占比重,若存储器需求增长叙事崩塌,韩国股市整体可能遭受直接冲击。甚至有极端观点认为,若两家公司的“存储器需求溢价”消失,KOSPI指数相较于当前水平可能存在高达100%的高估。

然而,在论文于ICLR 2026正式发表之前,技术社区已迅速在MLX、llama.cpp等框架上完成实现,并不断输出实际验证结果。市场并未等待商业化落地——其已对可能性本身作出了反应。

观点:AI从“更多芯片”转向“更优内存”

TurboQuant的出现,标志着AI效率竞争的焦点正在转移。如果说DeepSeek动摇了训练成本方面的范式,那么TurboQuant则正在颠覆推理阶段的内存架构。这两起事件的共同信息很明确:我们未必需要购买更多硬件。

当然,其局限性亦很清晰:该技术仅适用于键值缓存,未触及模型权重,且在处理数十亿请求的实际生产环境中的性能仍有待验证。然而,其无需重新训练即可直接应用于现有基础设施的特性,极大地降低了采用门槛。

或许,AI发展的边界并不在于芯片能集成多少晶体管,而在于我们能否优雅地将信息的无限复杂性,转换至数字比特的有限空间之中。

免责声明:

本网站、超链接、相关应用程序、论坛、博客等媒体账户以及其他平台和用户发布的所有内容均来源于第三方平台及平台用户。百亿财经对于网站及其内容不作任何类型的保证,网站所有区块链相关数据以及其他内容资料仅供用户学习及研究之用,不构成任何投资、法律等其他领域的建议和依据。百亿财经用户以及其他第三方平台在本网站发布的任何内容均由其个人负责,与百亿财经无关。百亿财经不对任何因使用本网站信息而导致的任何损失负责。您需谨慎使用相关数据及内容,并自行承担所带来的一切风险。强烈建议您独自对内容进行研究、审查、分析和验证。

展开阅读全文
更多新闻
自选
我的自选
查看全部
市值 价格 24h%