HBM供需在2025H2-2026H2持续处于供不应求状态(S/D Gap为负)。每颗Blackwell GPU搭载192GB HBM3e,Rubin将升至288GB HBM4。HBM总收入从2024A的$174亿增至2027E的$1,000亿,CAGR 79%。SK海力士保持主导(57%份额),但三星和美光正在追赶。
看多SK海力士美光
五大CSP 2026E合计CapEx达$5,500亿(vs 2024A $2,391亿)。Meta和Amazon最激进(各$1,200-1,400亿),Oracle增速最快($115亿→$500亿)。全球AI CapEx(含中国+其他区域)2026E达$8,500亿,2030E接近$3万亿。值得注意的是CSP之间出现「互相投资+抱团加速」的新趋势。
看多NVIDIABroadcomTSMC
DRAM总体供需缺口从2025Q3起转为持续负值(供不应求),主要由Server+HBM需求驱动。AI服务器DRAM内容量从Hopper的80-144GB提升至Blackwell 192GB、Rubin 288GB。AI相关DRAM需求(Server+HBM)已占总需求的40%+,超越Mobile成为最大单一应用。
看多三星SK海力士美光
DeepSeek R1 Input仅$0.14/1M tokens,为GPT-4的1/214。这迫使整个行业重新定价——OpenAI GPT-4o已降至$5/$15(vs GPT-4的$30/$60)。但低价策略的可持续性存疑:DeepSeek理论利润倍数5.45x,实际利润率仅0.7%(大量免费用户稀释)。定价下行对算力需求反而是利好——更低的推理成本激发了更多的调用量,验证了Jevons悖论。
中性利好算力基础设施
Google TPU、AWS Trainium、Meta MTIA、华为Ascend合计出货量从2024A的1.9M增至2027E的5.1M,CAGR 39%。Google TPU v7 Ironwood采用Broadcom方案,2027E出货近2M颗。AWS Trainium 3基于3nm,2027E出货1M颗。ASIC在推理场景中的TCO优势正在扩大(单位token成本比GPU低30-50%),但训练仍高度依赖NVIDIA生态。
看多BroadcomMarvellAlchip
a16z数据显示Coding已占全球Token消费的50%+,是增长最快的品类。Cursor ARR突破$1B并持续高增长,Anthropic Claude Code贡献$1.1B ARR(仅占总营收12%,但增速最快)。Coding Agent本质上是「用AI生产AI」——每1美元的Coding Agent投入可能创造5-10美元的下游AI应用开发价值,构成了正反馈增长飞轮。
看多Anthropic算力需求受益