AI基础设施产业链投资深度报告

基于四大底层模型数据 | 覆盖GPU/HBM/DRAM/NAND/CoWoS全产业链
2026年2月
$
2027E 加速器市场规模
$4,287亿
CAGR 114% (2024-2027)
H
2027E HBM总收入
$1,000亿
vs 2024A $38亿 (+2,532%)
C
2026E 全球AI CapEx
$8,500亿
YoY +42% vs 2025E
T
全球日均Token (2026.02E)
100T+
vs 2024均值0.5T/天 (+200x)
Executive Summary

核心投资逻辑:AI基础设施正处于「需求拉动型」超级周期

1
需求端:Token消费仍在指数曲线上。全球日均Token从2024年的0.5万亿飙升至2026年初的100万亿+,两年增长200倍。这不是泡沫——背后是AI从实验性工具向生产力基础设施的根本性转变。Coding占Token消费50%+(a16z),意味着AI正在「自我复制」——用AI写代码来构建更多AI应用,形成正反馈飞轮。
2
供给端:算力瓶颈从「芯片」转移至「封装+电力」。NVIDIA GPU产能已不再是唯一瓶颈——CoWoS先进封装需求CAGR 64%,产能到2027年仍然紧张。更根本的约束来自数据中心电力:全球AI电力需求正从50GW级向200GW+迈进,电力基础设施的建设周期(3-5年)远长于芯片扩产周期(1-2年)。
3
商业化:Token经济学已经跑通。OpenAI 2025年ARR $20B(3x YoY),Anthropic $9B ARR并上调2026预测至$18B。关键拐点是Anthropic企业推理Token份额接近OpenAI的2倍——B端需求已经超越C端成为主引擎。GPU ROI方面,Blackwell代际(B200 7.59x, GB200 6.27x)较Hopper(H100 1.21x)实现了算力经济性的代际跃迁。
4
中国市场:独立增长极正在形成。中国日均Token消费26.02达180万亿(占全球~30%),豆包(63万亿/天)、通义千问(32万亿/天)、腾讯元宝(28万亿/天)构成三强格局。字节跳动以59.2%的公有云调用份额形成压倒性优势。华为Ascend出货量24A→27E增长56倍(15K→835K),国产替代进入加速期。

供需缺口:HBM持续紧张至2027

HBM供需在2025H2-2026H2持续处于供不应求状态(S/D Gap为负)。每颗Blackwell GPU搭载192GB HBM3e,Rubin将升至288GB HBM4。HBM总收入从2024A的$174亿增至2027E的$1,000亿,CAGR 79%。SK海力士保持主导(57%份额),但三星和美光正在追赶。

看多SK海力士美光

CSP CapEx:军备竞赛无减速迹象

五大CSP 2026E合计CapEx达$5,500亿(vs 2024A $2,391亿)。Meta和Amazon最激进(各$1,200-1,400亿),Oracle增速最快($115亿→$500亿)。全球AI CapEx(含中国+其他区域)2026E达$8,500亿,2030E接近$3万亿。值得注意的是CSP之间出现「互相投资+抱团加速」的新趋势。

看多NVIDIABroadcomTSMC

DRAM:AI服务器需求重塑格局

DRAM总体供需缺口从2025Q3起转为持续负值(供不应求),主要由Server+HBM需求驱动。AI服务器DRAM内容量从Hopper的80-144GB提升至Blackwell 192GB、Rubin 288GB。AI相关DRAM需求(Server+HBM)已占总需求的40%+,超越Mobile成为最大单一应用。

看多三星SK海力士美光

Token定价:DeepSeek引发价格革命

DeepSeek R1 Input仅$0.14/1M tokens,为GPT-4的1/214。这迫使整个行业重新定价——OpenAI GPT-4o已降至$5/$15(vs GPT-4的$30/$60)。但低价策略的可持续性存疑:DeepSeek理论利润倍数5.45x,实际利润率仅0.7%(大量免费用户稀释)。定价下行对算力需求反而是利好——更低的推理成本激发了更多的调用量,验证了Jevons悖论。

中性利好算力基础设施

ASIC定制芯片:CSP「去NVIDIA化」提速

Google TPU、AWS Trainium、Meta MTIA、华为Ascend合计出货量从2024A的1.9M增至2027E的5.1M,CAGR 39%。Google TPU v7 Ironwood采用Broadcom方案,2027E出货近2M颗。AWS Trainium 3基于3nm,2027E出货1M颗。ASIC在推理场景中的TCO优势正在扩大(单位token成本比GPU低30-50%),但训练仍高度依赖NVIDIA生态。

看多BroadcomMarvellAlchip

Coding Agent:最快变现的AI应用赛道

a16z数据显示Coding已占全球Token消费的50%+,是增长最快的品类。Cursor ARR突破$1B并持续高增长,Anthropic Claude Code贡献$1.1B ARR(仅占总营收12%,但增速最快)。Coding Agent本质上是「用AI生产AI」——每1美元的Coding Agent投入可能创造5-10美元的下游AI应用开发价值,构成了正反馈增长飞轮。

看多Anthropic算力需求受益

Token消费量追踪
全球Token消费量月度追踪(十亿Tokens)
数据覆盖主流模型厂商 | 2024.11 - 2025.05
核心发现:全球日均Token从41B(24.11)增至293B(25.05),半年增长7倍。 Google在AI Overviews/Gemini驱动下从338B→3,012B; OpenAI在4-5月出现拐点(GPT-5/Agent商业化),消费量突破2,100B。 DeepSeek开源模型半年从4B→1,105B,开源生态算力需求不可忽视。
各厂商Token份额变化
百分比堆叠 | 2024.11 - 2025.05
日均Token消费增速
每日处理Token数(十亿)& 环比增速
全球Token消费排行榜 — 日均万亿tokens(2026.02)
数据来源:公司财报/公开披露/分析师估算 | 统计口径存在差异,仅供参考
Google全平台Token月度消费(万亿/月)
含AI Overviews/Gemini/Search/Ads全量 | 2024.04 - 2025Q4
豆包大模型日均Token消费(万亿/天)
字节跳动 | 2024.05 - 2026.02
最新数据(至2026.02):全球日均Token消费突破100万亿+,较2024均值(0.5万亿/天)增长200倍。 Google全平台25Q4达1,300万亿/月(~43万亿/天),Gemini API单独达10B tokens/分钟(14.4万亿/天)。 豆包26.02达63万亿/天,中国公有云调用份额59.2%,为国内第一。 OpenAI API达6B tokens/分钟(~8.6万亿/天),ChatGPT周活9亿,日均25亿次对话。 中国市场26.02合计约180万亿/天,同比增长20倍。DeepSeek因模型更新节奏放缓,用户有所流失。
AI Token Economics
AI厂商收入增长轨迹($B)
OpenAI / Anthropic | 2023A - 2027E
OpenAI收入结构拆分($B)
API / ChatGPT / Agent / 新产品
OpenAI ARR里程碑追踪($B)
年化收入运行率 & ChatGPT周活跃用户
API定价对比($/1M tokens)
Input vs Output | 主流模型横向比较
GPU/TPU平台ROI对比
投资回报倍数 | H100 / B200 / GB200 / TPU
云GPU租赁价格($/小时)
AWS H200 Spot / Azure H200 On-Demand / 其他
DeepSeek推理经济模型
278节点/2,224 GPU | 成本结构 & 利润率分析
Coding Agent ARR追踪($B)
Cursor / Anthropic | 年化收入运行率
Token Economics核心发现(最新):OpenAI 2025全年ARR达$20B(3x YoY),25年7月首次单月收入破$1B,周活9亿。 Anthropic ARR从25年初$1B飙升至年底$9B,26年预测上调至$18B(+20%),Claude Code贡献$1.1B ARR(~12%)。 Anthropic在企业推理Token市场份额接近OpenAI的2倍(Barclays)。 定价方面,DeepSeek R1仅$0.14-$2.19/1M tokens,为GPT-4的1/27。 GPU ROI中B200 (7.59x)和GB200 (6.27x)远超H100 (1.21x)。 TPU v4 ROI仅0.28x。a16z报告:Coding占Token消费50%+,推理模型处理量超总量50%。
GPU/加速器市场
NVIDIA GPU年度出货量(千颗)
按产品代际拆分 | Hopper → Blackwell → Rubin
加速器市场收入($M)
NVIDIA vs Broadcom vs AMD vs Huawei vs Others
NVIDIA GPU客户分配(千卡)
Hopper/Blackwell/Rubin | 不含H20
全球XPU总出货量与AI CapEx
GPU + ASIC合计 | 2023-2030E
CSP资本开支
五大CSP CapEx跟踪(亿美元)
Meta / Amazon / Google / Microsoft / Oracle
全球AI CapEx全景(亿美元)
北美 + 中国 + 其他区域
趋势:全球AI CapEx从2024A的$2,391亿增至2026E的$8,500亿。 北美五大CSP占比约65%,中国CSP 2026E预计$1,000亿,其他区域$2,000亿。 到2030E,全球AI CapEx预计接近3万亿美元
HBM市场分析
HBM收入按供应商($M)
SK Hynix / Samsung / Micron | 年度汇总
HBM供需缺口(季度)
负值 = 供不应求 | 来自DRAM Overview模型
HBM ASP趋势($/Gb)
按供应商 | 年度均价
HBM市场份额演变
收入口径 | 年度
DRAM供需分析
DRAM总体供需缺口(季度)
包含Commodity DRAM + HBM | 负值 = 供不应求
DRAM需求结构(按应用)
Server+HBM / Mobile / PC / Auto / CE
NAND/存储市场
NAND供需与利用率
供给 vs 需求 (EB) & 利用率 (%)
CSP NAND采购量(EB)
AI驱动的存储需求爆发
NAND TAM ($bn) 与厂商份额
2014-2027E | Samsung / SK Hynix / Micron / Kioxia / SanDisk
NAND TAM:2024年因行业去库存降至$34.2bn(-37% YoY), 2025E强劲反弹至$64.9bn(+90%)。AI存储(KV Cache + RAG + 多模态Archive) 从2026年起成为核心增量,CSP NAND采购从70EB(24A)增至291EB(26E)
CoWoS先进封装
CoWoS产能需求(千片晶圆/年)
按客户拆分 | 2023-2027E
GPU/加速器出货量(百万颗)
NVIDIA / Google TPU / AWS Trainium / AMD / Meta MTIA
封装瓶颈:CoWoS需求从350K(24A)→1,550K(27E)片,CAGR 64%。 CoWoS-L成为主流(Blackwell/Rubin大芯片),2027E占比>80%。 NVIDIA等效GPU die从5M(24A)增至17M(27E),封装产能持续紧张。
ASIC定制芯片
CSP自研芯片出货量路线图(千颗)
Google TPU / AWS Trainium / Meta MTIA / Huawei Ascend / Others
芯片规格对比
显存带宽 vs 算力(关键芯片)
气泡大小 = 显存容量 (GB)
NVIDIA代际演进:关键指标对比
A100 → H100 → H200 → B200 → GB300 → R200
产业洞察与前瞻

五大结构性趋势判断(2026-2028)

I
从「训练为王」到「推理为王」的范式转移。2024年训练占AI算力消费的60%+,到2026年这一比例已反转——推理占比超过70%且仍在扩大。这意味着什么?(1) 推理优化芯片(ASIC、定制加速器)的战略价值急剧上升;(2) 单位推理成本每下降50%,调用量可能增长3-5倍(Jevons悖论在AI领域的验证);(3) NVIDIA的护城河正从「训练生态垄断」向「推理性价比」迁移——Blackwell/Rubin必须在推理效率上保持领先,否则将面临ASIC的侵蚀。
II
Agent经济体的崛起将重新定义「Token需求」的天花板。当前Token消费仍以人机交互为主(用户输入prompt→模型返回结果),但Agent模式正在改变这一格局:一个Agent任务可能触发数百次模型调用、数万tokens的中间推理过程。Coding Agent已经展示了这一潜力——单个开发任务消耗的Token量是普通对话的100-1000倍。当Agent渗透到企业工作流(销售、客服、法务、财务),Token消费可能再增长一个数量级。这是支撑CSP持续加大CapEx的核心逻辑。
III
存储正在成为被低估的AI受益环节。随着长上下文窗口(100K→1M+ tokens)和多模态模型的普及,KV Cache的内存需求正以超线性速度增长。一个典型的B200推理服务器,其KV Cache可能占用与模型参数同等甚至更多的HBM容量。这推动了:(1) HBM容量从192GB→288GB→1TB的快速升级路径;(2) NAND在AI存储中的角色升级——CSP NAND采购从70EB(24A)→291EB(26E),4年4倍。NAND TAM在经历2024年的去库存低谷后,正迎来AI驱动的结构性反弹。
IV
中美AI产业链正在「平行宇宙化」。华为Ascend出货量3年增长56倍,中国CSP CapEx 2026E达$1,000亿。字节豆包以63万亿tokens/天位居全球第二(仅次于Google全平台),阿里通义千问开源模型衍生14万+模型。关键观察:中国的AI算力需求增速并未因芯片限制而放缓——而是通过(1)推理效率优化(DeepSeek MoE架构的成本革命)、(2)国产替代加速(华为+中芯的成熟制程路径)、(3)应用场景爆发(抖音占字节算力40%、豆包占10%)来实现独立增长。两条平行的AI算力需求曲线,意味着全球基础设施投资的总量将超出单一市场的预期。
V
封装和电力将取代芯片成为终极瓶颈。CoWoS产能需求CAGR 64%,但TSMC扩产节奏受限于设备(光刻机)和良率(CoWoS-L的大面积封装)。更深层的约束是电力——一个10万卡的Blackwell集群需要~150MW电力,相当于一个中型城市。到2030年,全球AI数据中心电力需求预计超过200GW,但电网建设周期是3-5年。谁能率先解决电力和冷却问题(核电、液冷、边缘数据中心),谁就掌握了AI基础设施竞争的终极筹码。
关键风险与不确定性
High Risk
AI CapEx泡沫化风险
CSP CapEx增速(42% YoY)远快于AI收入增速。如果AI应用的商业化兑现速度低于预期,CapEx可能面临急刹车。历史参照:2000年电信泡沫中,运营商CapEx从峰值下降60%。关注指标:CSP AI云收入增速 vs CapEx增速的剪刀差。
High Risk
推理效率跳变式提升
如果出现新的模型架构(如更高效的MoE变体或全新的计算范式),使推理成本降低一个数量级,可能导致已建算力严重过剩。DeepSeek已展示了「低成本高性能」的可能性——如果这种趋势加速,对高端GPU的需求增速可能放缓。
High Risk
地缘政治升级
美国对华芯片禁令的进一步升级(如限制HBM出口、扩大实体清单)可能导致:(1)中国加速国产替代,减少对海外供应链的依赖;(2)全球半导体供应链效率下降,推高成本。双重供应链的建设成本最终由终端用户承担。
Medium Risk
HBM供需反转
2027年后随着三星/美光产能释放,HBM可能从供不应求转为供过于求(2027H1 S/D Gap转正)。如果同时叠加GPU需求增速放缓,HBM ASP可能面临下行压力。不过从当前数据看,Rubin代际对HBM4的需求量(288GB/卡)将部分对冲供给增长。
Medium Risk
NVIDIA竞争格局恶化
Broadcom ASIC收入2024→2027E CAGR 149%,增速远快于NVIDIA(104%)。如果Google TPU v7/v8在推理场景展现出明显成本优势,可能导致CSP减少NVIDIA GPU采购。NVIDIA需要持续证明其「平台+生态」溢价的合理性。
Low Risk
AI监管政策收紧
EU AI Act已经生效,美国也在讨论AI安全法规。如果出现严格的模型审核/部署限制,可能短期拖累AI应用落地速度。但从历史经验看,监管更可能提高准入门槛、利好头部玩家,而非实质性抑制整体需求。

产业链投资优先级排序

Top
最高优先级 — HBM/先进存储:供需缺口最确定、持续时间最长。SK海力士(全球HBM #1,57%份额)和美光(HBM增速最快,2025E rev 3.3x YoY)是核心标的。NAND层面关注三星和铠侠的AI存储业务。
Tier1
一级优先 — ASIC设计服务:CSP自研芯片趋势不可逆。Broadcom(Google/Meta的ASIC partner)收入CAGR 149%,Marvell(Amazon Trainium)和Alchip(AWS定制芯片)将受益于持续增长的设计开工量。这是「去NVIDIA化」趋势中的最大受益群体。
Tier1
一级优先 — 先进封装:TSMC CoWoS产能是唯一无法短期替代的瓶颈。封装设备商(如Besi、ASM Pacific)和CoWoS产能的直接受益者(日月光、Amkor)具备长期增长逻辑。CoWoS-L从2025年起成为主流,工艺复杂度进一步提升设备需求。
Tier2
二级优先 — NVIDIA及GPU生态:NVIDIA仍是AI芯片的绝对王者(2026E份额84%),但估值已充分反映增长预期。关注Blackwell→Rubin代际切换期间的执行风险。GPU周边的确定性更高:电源管理(Monolithic Power)、高速互连(Credo、Astera Labs)、散热/液冷(Vertiv、Coolera)。
Alpha
Alpha机会 — 中国AI产业链:华为Ascend(出货量3年56倍)、中芯国际(成熟制程AI芯片代工)、寒武纪(国产AI推理芯片)构成中国AI算力的「铁三角」。政策驱动+需求刚性+国产替代三重催化。风险在于技术代差(与NVIDIA Blackwell仍有2-3代差距)和外部制裁加码。
写在最后: AI基础设施投资的本质问题不是「AI需求会不会来」——全球100万亿+ tokens/天的消费量已经证明了需求的真实性和爆发力。 真正的问题是「谁能在算力军备竞赛中建立持久的结构性优势」。 我们的判断是:在供给侧掌握稀缺资源(HBM产能、CoWoS封装、电力)的公司,比单纯依赖需求增长的公司更具投资确定性。 原因很简单——在一个需求以200x速度增长、但供给扩张受限于物理世界约束(建厂周期、电网建设、材料供应)的市场中, 稀缺性溢价将远大于规模效应。 这就是为什么我们将HBM和先进封装放在投资优先级的最高位置。