老黄发布了rubin,最大的感受就是存算一体……
懵懵懂懂,但也看得出来存储以后越来越重要了。
1. 为什么“内存”是全场最硬的利好?(算力的“油管”必须加粗)
核心逻辑: 算力变强了,但如果没有足够的数据喂给它,算力就是摆设。Rubin平台让数据处理速度暴增,这就要求“搬运工”(内存)必须跟上节奏。
* 人话解读:
想象一下,AI芯片(GPU)是一个超级能吃的“大胃王”(算力引擎)。以前的内存就像用吸管喂它喝粥,速度很慢。现在Rubin平台把这个大胃王升级了,它吃得更快了。
如果你还用吸管(旧内存),根本喂不饱它,它的能力就浪费了(算力空转)。所以,现在必须换“粗水管”(HBM4高带宽内存),才能保证数据能像洪水一样冲进芯片。
结论: 既然算力(引擎)必须依赖内存(油管)才能发挥作用,那么AI越发展,对顶级内存的需求就越疯狂。这就是为什么说内存是“确定性”的利好——只要AI要干活,就必须用它。
2. 为什么光模块和TPU感受到了冷意?(护城河被“降维打击”)
A. 光模块(Optical Modules):利润被“吞并”了
* 人话解读:
光模块就像是数据中心里不同服务器之间的“电话线”,负责传递信息。以前英伟达主要卖芯片,这些“电话线”通常由外部公司(如中际旭创等)生产,赚了不少钱。
但现在,英伟达在Rubin平台上搞了一种“黑科技”(硅光互联、NVLink),把很多原本需要通过外部“电话线”传输的数据,变成了机柜内部的“悄悄话”(板载互联/铜缆)。
结果: 外部“电话线”的需求量被压缩了。英伟达自己把这部分利润收进了腰包,外部供应商的“溢价”空间自然就缩水了。
B. TPU(谷歌的专用AI芯片):性价比优势没了
* 人话解读:
谷歌的TPU一直主打“便宜好用”,专门用来做AI推理(比如你问ChatGPT问题,它回答你)。以前大家都觉得TPU比英伟达的通用显卡省钱。
但Rubin平台这次专门设计了一种“推理怪兽”(Rubin CPX),它虽然也是显卡,但专门针对“回答问题”这个场景做了极致优化。
结果: 英伟达用一种“推土机”式的打法,把推理成本砍掉了90%。这相当于英伟达用“通用巨头”的体量,做出了比谷歌“专用选手”还要便宜还要快的产品。谷歌TPU原本那条“性价比护城河”,瞬间就被填平了。
3. 为什么某些互联网巨头还在跌?(“机会成本”的挤压)
核心逻辑: 市场的钱是有限的。当出现一种“硬核”的、能改变物理世界的新故事时,资金会从“软”的、传统的板块抽离。
* 人话解读:
现在的资本市场正在疯狂追逐“物理AI”和“硬科技”(芯片、能源、机器人)。这些是现在的“顶流”,代表着未来五年的新产业。
某些互联网巨头虽然业务很稳,赚钱能力也不错,但它更多属于“旧时代”的互联网巨头。在投资里,这叫“机会成本”。
打个比方: 如果你手里有100万,现在有一个暴利的“AI芯片新项目”(Rubin概念),还有一个收益稳定的“老铺面”(xxx)。你会选哪个?大部分热钱都去追AI了,没人买xxx,它的股价自然就跌了。因为资金留在xxx里不动,就意味着错过了AI这波暴涨,这个“错过的损失”就是机会成本。
总结一下:
当前的主线逻辑非常清晰:英伟达Rubin平台的发布,标志着AI从“拼算力”进入了“拼物理基础设施”的阶段。
1. 内存(HBM) 是算力的血液,必须买。
2. 光模块 的外部需求被英伟达内部化了,利好减弱。
3. TPU 面对英伟达的“特种兵”打法,护城河被冲垮。
4. 传统互联网巨头 因为缺乏“硬科技”属性,在资金博弈中被抛弃。