AI资本开支能否收回成本?
AI基础设施回报的量化分析框架
2026年3月
每一轮重大技术周期都遵循同样的规律:一项突破性技术创造了真实需求,资本蜂拥而入建设基础设施,市场则围绕投资能否收回成本展开辩论。1840年代的铁路、1990年代末的光纤、2010年代的云计算,无不如此。每一次,技术最终都改变了经济格局。但为基础设施建设提供资金的投资者,并非总能收回他们的钱。
AI基础设施建设是科技史上规模最大的资本部署。超大规模云厂商(Hyperscalers)预计在2024至2035年间将花费约2.6万亿至5.6万亿美元用于AI专用基础设施,具体取决于需求增长轨迹和资本密集度。为这场建设提供核心GPU的主导供应商NVIDIA,市值已达4.45万亿美元——超过大多数国家的GDP。华尔街和财经媒体对多空双方的观点进行了广泛讨论。多方指向爆发式的收入增长:据报道,Anthropic在一年多的时间里年化收入运行率(ARR, Annualized Revenue Run Rate,即将当月收入乘以12得到的年化指标)就达到190亿美元(Bloomberg),OpenAI突破200亿美元(Reuters),数十家AI初创公司的ARR超过1亿美元。空方则援引光纤泡沫破裂的先例——当年建设了2万亿美元的基础设施,但需求用了整整十年才跟上。
我认为,这场辩论不能靠关于技术进步的叙事或对通用人工智能的预测来定论。它应该由真实的收入数据来决定——已经实际收取了多少、当前增长轨迹意味着什么、数学上是否行得通。
本报告采用了不同的分析方法。我没有简单地支持或反对AI投资论点,而是构建了一个定量分析框架,包含两个独立维度——三种收入增长情景(需求侧)和三条资本密集度路径(供给侧效率)——形成一个3×3矩阵,共九种结果组合。每种组合都锚定于可验证的收入数据、实际的企业资本开支(CapEx, Capital Expenditure)指引,以及历次基础设施建设周期的历史先例。我对整条价值链进行建模——从NVIDIA的GPU销售,到超大规模云厂商的云业务利润,再到终端用户应用层——并计算每种组合下的投入资本回报率(ROIC, Return on Invested Capital)。
研究结论令人不安,无论你相信哪种情景。
当前增长轨迹正在追踪最乐观的情景。AI收入的增长速度达到甚至超过了云计算在同一发展阶段的增长轨迹。Anthropic和OpenAI每月各增加超过10亿美元的新收入。企业采用正在加速。这项技术的真实性和商业可行性毋庸置疑。
然而,即使在这种最佳情景下——AI成为自互联网以来最具变革性的技术,企业采用沿着史上最快的S曲线推进,收入持续以超过60%的速度复合增长直至2027年——基础设施资本开支造成的财务缺口之深,也需要十年时间才能爬出来。结果不仅取决于收入增长,还取决于第二个独立变量:资本密集度 ——每产生一美元AI收入需要多少美元的基础设施投资。在我的基准情景(中等收入增长、基准效率)下,超大规模云厂商的基础设施总回报(毛利 / 累计资本开支——详见第7.2节方法论说明)到2035年仅达到8.0%,对应扣除估计运营费用后约4-5%的营业层面回报。折旧盈亏平衡约在2034年实现。累计毛利润减去累计资本开支在整个预测窗口期内仍为负值(−2.0万亿美元)。即使是最乐观的组合——强劲收入增长叠加激进的效率提升——累计赤字到2035年仍超过1.1万亿美元。转型机制(年度资本开支最多下降30%,反映数据中心和GPU合同的惯性)使得这些数字比纯公式模型的计算结果更差,尤其是在需求崩溃的情景中,超大规模云厂商被锁定在远超需求的支出水平上。
基础设施成本主要由超大规模云厂商承担,但基础模型公司的自有投入也在增加。Anthropic和OpenAI不再是纯粹的算力租户——Anthropic宣布计划在五年内投入约500亿美元用于基础设施(Fluidstack合作伙伴关系,2025年;Reuters),同时维持与AWS、Google Cloud和Azure的云服务协议;OpenAI发起了5000亿美元的Stargate项目(软银/Oracle/MGX),同时继续使用Azure。两家公司都采用混合模式:自有基础设施用于训练,云服务用于突发容量和推理。应用层——Cursor、Harvey、Glean——仍然是轻资产模式,租用API接口,赚取软件利润率。AI创造的价值沿价值链向上流动,但创造价值所需的资本集中在基础设施层和模型层。
要让超大规模云厂商在这笔投资上获得合理回报,仅仅依靠AI云业务增长是不够的。他们需要AI浪潮提升其整个现有业务——广告、企业软件、电子商务——以目前尚无法衡量的方式。迄今为止,AI资本开支最明显的受益者是广告业务——主要不是因为AI改善了广告技术,而是因为AI投资热潮催生了一大批拥有巨额客户获取预算的风投支持初创公司,这些营销支出中的很大一部分流向了Google和Meta的广告平台。这是需求侧效应:AI公司在买广告,而非AI在改善广告效果。AI基础设施租赁业务本身是另一个明显受益者。AI能否推动超大规模云厂商全业务线的变革性增长,仍是一个悬而未决的问题。
最重要的发现:资本密集度比收入更能决定AI投资能否收回成本 ——但合同惯性可以凌驾于两者之上。低密集度叠加强劲收入可在约2031年实现资本开支回收,但在需求崩溃的情景中,即使低密集度也要到约2033年才能回收,因为转型底线迫使支出继续维持。高密集度则无论收入如何都无法实现盈亏平衡。NVIDIA和超大规模云厂商处于这一维度的对立面——NVIDIA受益于高密集度(更多GPU采购),而超大规模云厂商受益于低密集度(更少支出获得同样收入)。每一美元改善云AI盈利能力的效率提升,就是NVIDIA少收到的一美元。
市场对AI相关股票的定价反映出,其乐观程度甚至超过了最看多的组合。NVIDIA以4.45万亿美元的市值计算,其概率加权自由现金流回报在未来十年仅为每年1.2%——在3×3矩阵的每个格子中都低于国债的无风险利率。但市值并不等于共识估值。它是由最后一个买家设定的边际价格乘以总流通股数得到的。NVIDIA的大部分股东在多年前以低得多的价格建仓,正坐拥巨额未实现收益。4.45万亿美元的市值并不意味着每个市场参与者都认为NVIDIA值4.45万亿美元。它意味着边际买家——可能只占日成交量的很小一部分——愿意支付这个价格,而现有持有者没有急于出售的动力。这一区别对于解读市场对AI估值"在说什么"至关重要。
以下是数据、模型和预测。我将所有假设明确列出,以便读者可以调整任何输入参数并观察结论如何变化。
Part I:已知数据
1.1 AI公司收入——可验证的数据
基础模型公司已经披露了足够的数据,可以构建出可靠的收入增长轨迹。以下所有数据均为年化收入运行率(ARR),除非另有说明——而非传统SaaS中的经常性收入(基于长期合同),因为这些收入中很大一部分是基于使用量的API消费,波动性可能更大。数据来源为行业报道(Bloomberg、Reuters、科技媒体)和公司通讯;这些并非经审计的GAAP(美国通用会计准则)披露。
Anthropic
| 日期 | ARR | 来源 |
|---|---|---|
| 2024年12月 | 10亿美元 | SaaStr |
| 2025年3月 | 20亿美元 | 行业报告 |
| 2025年7月 | 40亿美元 | Aakash Gupta |
| 2025年12月 | 90亿美元 | Bloomberg |
| 2026年2月 | 140亿美元 | SaaStr |
| 2026年3月 | >190亿美元(年化收入运行率) | Bloomberg / 摩根士丹利TMT大会 |
补充信息(来源为大会演讲和行业报道——非经审计披露):
- 仅2026年2月一个月就新增60亿美元收入(Dario Amodei,摩根士丹利TMT大会)
- Claude Code:报告称ARR超过25亿美元,自2026年1月以来翻倍
- 收入构成:约70-75%来自API,约10-15%来自消费端,约13%来自Claude Code(公司报告)
- 500+客户年消费超过100万美元(公司报告)
- 毛利率:约40-50%(公司报告);目标2028年达到77%
- 目标2027年实现现金流为正
- 估值:3800亿美元(G轮融资,2026年2月)。累计融资:约640亿美元。
OpenAI
| 日期 | ARR | 来源 |
|---|---|---|
| 2023年12月 | 20亿美元 | 公司披露 |
| 2024年6月 | 34亿美元 | 行业报道 |
| 2024年12月 | 60亿美元 | 行业报道 |
| 2025年7月 | 120亿美元 | 首个月收入10亿美元(年化) |
| 2025年12月 | >200亿美元(年化收入) | OpenAI / Reuters |
补充信息(OpenAI通讯和Reuters报道——非经审计):
- 2025年实际收入:约130亿美元(Reuters)(全年合计;低于200亿美元ARR,因为收入从1月的约5亿美元/月增长到12月的约16.7亿美元/月——ARR是期末速率,而非全年总额)
- 收入构成:约75%来自消费端(ChatGPT),约35%来自企业/API
- 毛利率:33%(受推理成本制约)
- 2026年预计亏损:140亿美元
- 预计到2029年累计亏损:1150亿美元
- 公司自身目标:2028年收入1000亿美元,2030年2800亿美元
- 估值:8400亿美元(2026年2月)。投资者:Amazon 500亿美元,NVIDIA 300亿美元,软银300亿美元。
Cursor (Anysphere)
| 日期 | ARR | 来源 |
|---|---|---|
| 2025年1月 | 1亿美元 | 公司报告 |
| 2025年6月 | 约5亿美元 | 行业估计 |
| 2025年11月 | 10亿美元以上 | 行业报道(科技媒体) |
| 2026年2月 | 20亿美元以上 | 行业报道(科技媒体) |
补充:60%来自企业客户,40%来自个人用户。估值:293亿美元。
其他值得关注的AI收入(2025-2026年)
| 公司 | ARR | 类别 |
|---|---|---|
| Scale AI | 20亿美元 | 数据基础设施 |
| Midjourney | 5亿美元 | 图像生成(盈利,自筹资金,约150名员工) |
| xAI (Grok) | 约5亿美元 | 基础模型 |
| ElevenLabs | 3.3亿美元 | 语音AI |
| Cohere | 2.4亿美元 | 企业AI |
| Glean | 2亿美元 | 企业搜索 |
| Perplexity | 1.48亿美元 | AI搜索 |
50+款AI产品ARR超过1亿美元。10+款超过10亿美元(Menlo Ventures,2026年)。
超大规模云厂商AI收入
| 公司 | AI相关收入(运行率) | 备注 |
|---|---|---|
| Google Cloud | 年化运行率700亿美元以上 | 2025年Q4:176.6亿美元(同比+48%)。订单积压2400亿美元。 |
| Microsoft AI | 运行率130亿美元以上(2025年1月披露;估计2026年3月已超200亿美元) | Azure AI:贡献Azure 33%增速中的16个百分点(2025财年Q2)。GitHub Copilot:470万付费订阅。 |
| AWS AI Services | 数十亿美元,三位数同比增长 | Bedrock:采用量增长4.7倍。Trainium:数十亿美元运行率。 |
| Databricks AI | 14亿美元(总收入54亿美元中) | 净收入留存率(NRR):>140% |
1.2 超大规模云厂商资本开支——已确认和已指引
| 公司 | 2024年实际 | 2025年初始指引 | 2025年实际 | 2026年指引(2026年2-3月) |
|---|---|---|---|---|
| Microsoft | 560亿 | 800亿 | 约840亿 | 约1450亿(财年运行率) |
| 520亿 | 750亿 | 914亿 | 1750-1850亿 | |
| Meta | 390亿 | 600-650亿 | 722亿 | 1150-1350亿 |
| Amazon | 830亿 | 1000亿以上 | 约1320亿 | 约2000亿 |
| 其他(Oracle等) | 约100亿 | 约250亿 | 约300亿 | 约400-500亿 |
| 合计 | 约2400亿 | 约3400-3800亿 | 约4100亿 | 约6750-7150亿 |
注:2025年实际值超出了Google(+22%)和Meta(+14%)的初始指引,暗示2026年也存在上调压力。以上为总资本开支数据(不动产/设备增加额)。按约75%的AI占比(行业共识),2025年AI资本开支约3080亿美元,2026年AI资本开支指引约5000-5350亿美元。本模型使用2025年AI资本开支2430亿美元和2026年4880亿美元(见第3.3节)——这些是仅含超大规模云厂商的数据(不含新兴云厂商),相对于全行业实际值/指引偏保守。
1.3 GPU折旧政策——公司实际报表数据
| 公司 | 使用年限 | 近期变更 |
|---|---|---|
| 6年 | 2023年从4年延长 | |
| Microsoft | 6年 | 2023年从4年延长 |
| Meta | 5.5年 | 2025年延长 |
| Amazon | 5年 | 2025年从6年缩短,理由是"AI创新的快速步伐" |
| Lambda Labs | 5年 | 新兴云厂商 |
| Nebius | 4年 | 新兴云厂商(更为保守) |
"价值梯级"模型支持更长的使用年限:前沿训练(第1-2年)→ 推理(第3-4年)→ 批处理/边缘计算(第5年以后)。二手市场证据:A100(2020年产)在2025年仍以
看空方对缩短年限的论据:NVIDIA每两年推出新架构(Hopper → Blackwell → Rubin)。有分析师估计,2026-2028年全行业可能低估了约1760亿美元的折旧。
1.4 NVIDIA财务数据
- 市值:4.45万亿美元(2026年3月)
- 数据中心收入:年化运行率约1700亿美元(2025年)
- 毛利率:GAAP约71%(2026财年);2026财年Q4约75%。模型采用63%作为保守假设(见第3.1节)
- 自身资本开支:约为收入的3%
- 占超大规模云厂商资本开支份额:约25-30%
- 收入是超大规模云厂商资本开支的衍生指标,而非AI终端用户收入的衍生指标
Part II:增长率模型
2.1 基数效应校正
直接比较不同规模公司的百分比增长率会产生误导。真正有意义的指标是绝对美元增加额。
绝对收入增加速率:
| 公司 | 期间 | 增加额 | 月均速率 |
|---|---|---|---|
| Anthropic | 2024年12月 → 2026年3月(14个月) | +180亿 | 12.9亿/月 |
| OpenAI | 2024年12月 → 2025年12月(12个月) | +140亿 | 11.7亿/月 |
| Cursor | 2025年1月 → 2026年2月(13个月) | +19亿 | 1.5亿/月 |
Anthropic和OpenAI增加的绝对美元金额几乎相同。"1,148% vs 47%"的增长率比较是不同起始基数造成的假象。
2.2 各规模阶段的增长率
| 规模 | OpenAI | Anthropic |
|---|---|---|
| 10亿 → 20亿 | 2个月(年化6,300%) | 3个月(年化1,500%) |
| 20亿 → 40亿 | 6个月(年化300%) | 4个月(年化700%) |
| 40亿 → 60亿 | 4个月(年化238%) | 2个月(年化1,039%) |
| 60亿 → 120亿 | 7个月(年化228%) | 4个月(年化700%) |
| 120亿 → 200亿 | 5个月(年化241%) | 2个月(年化2,043%) |
OpenAI在达到10亿和20亿美元时更快(ChatGPT的消费端病毒式传播)。但在20亿美元以上,Anthropic在每个阶段都更快,且优势在扩大。
结构性解释:OpenAI约75%收入来自消费端(饱和更快)。Anthropic约70-75%收入来自API/企业端(78%的企业仍处于试点阶段——可寻址市场空间更大)。
2.3 200亿美元以上规模的历史增长率
| 公司 | 约200亿美元时的收入 | 增长率 | 年份 |
|---|---|---|---|
| AWS | 175亿 | 43% | 2017年 |
| 218亿 | 31% | 2008年 | |
| Microsoft Azure | AI运行率约130亿 | 29%(Azure整体) | 2023年 |
| Netflix | 250亿 | 24% | 2020年 |
| Salesforce | 265亿 | 25% | 2022年 |
| Meta | 276亿 | 54% | 2016年(广告双寡头——异常值) |
200亿美元以上规模的平均增长率:25-43%(非垄断情况)。除Meta外,没有公司在200亿美元以上维持过50%以上的增长率。
Part III:假设
3.1 所有情景通用的假设
| 假设 | 数值 | 依据 |
|---|---|---|
| GPU使用年限(折旧) | 5年 | Amazon的政策(超大规模云厂商中最保守) |
| AI占超大规模云厂商资本开支比例 | 60%(2024年)→ 80%(2027-2029年)→ 75%(2030年) | 行业估计,随着AI成为资本开支的主要驱动力而上升 |
| 超大规模云厂商占AI收入比例 | 55% | 云基础设施费用 + 自有AI产品(Copilot、Gemini等) |
| NVIDIA占总资本开支比例 | 28% | GPU + 网络设备 |
| NVIDIA毛利率 | 63% | 保守假设:2026财年GAAP约71%(Q4约75%)。模型下调至63%以反映竞争对手(AMD MI300X、定制ASIC)带来的潜在利润率压缩和产品组合向推理倾斜 |
| NVIDIA自身资本开支 | 收入的3% | FY2026:约60亿/2160亿收入 |
| 固定能力下每token推理成本 | 每年下降5-10倍(分解见第5.3节) | a16z、Epoch AI、arxiv 2511.23455;硬件约1.3倍/年,算法约3倍/年,其余来自经济竞争 + 模型缩小 |
| 超大规模云厂商(AI)毛利率 | 固定路径:40%(2025年)→ 62%(2030年)→ 73%(2035年) | 维持当前竞争格局;改善来自推理成本下降 + 规模效应 |
| 收入重复计算 | 约1.6倍 | 终端用户每花费20美元 = 价值链各层报告的ARR合计约32.50美元 |
3.2 收入情景(需求侧)
收入情景决定AI收入增长的速度。它们独立于基础设施效率。
情景A:"云计算重演"(概率40-45%)
| 假设 | 数值 |
|---|---|
| AI收入增速 | 2028年前>60%,随后减速至24-42% |
| 企业采用 | 78%处于试点 → 2028年50%以上正式部署 |
| 竞争格局 | 市场扩张速度足以维持多个赢家 |
| 历史类比 | 云计算(AWS:15年内从0到1000亿美元以上) |
情景B:"缓慢爬坡"(概率35-40%)
| 假设 | 数值 |
|---|---|
| AI收入增速 | 2027年40-60%,随后24-32% |
| 企业采用 | 缓慢:6-18个月采购周期,大多数试点未能转化 |
| 竞争格局 | 价格战:OpenAI/Anthropic/Google补贴API定价,阻碍利润率扩张 |
| 历史类比 | 2001-2005年互联网(技术真实,变现滞后于预期) |
情景C:"光纤泡沫破裂"(概率15-20%)
| 假设 | 数值 |
|---|---|
| AI收入增速 | 2027年20-30%,随后<10% |
| 企业采用 | 未能大规模交付可衡量的ROI;"AI疲劳"出现 |
| 竞争格局 | 2-3年试点支出后预算削减 |
| 历史类比 | 1997-2001年光纤建设(产能过剩50:1,大量破产) |
3.3 资本开支密集度路径(供给侧效率)
资本开支密集度 = AI资本开支 / AI收入。它衡量每产生一美元AI收入需要多少美元的基础设施投资——是资产周转率的倒数。随着推理成本下降、资本存量成熟、工作负载从训练转向推理,密集度会随时间下降。
在模型中,这些路径被视为独立于收入情景——你可以在高或低密集度下拥有出色的收入增长。这是一个简化假设。实际上,两个维度以两种方式相互作用:
转型期的机械耦合(2028-2030年以后):转型底线(上年资本开支的70%)创造了一个固定的最低支出水平(2028年3820亿美元),与收入无关。将相同的底线除以较低的收入会在需求崩溃情景中产生更高的实际密集度 ——并非因为效率更差,而是因为分母更小。情景C在2028年显示2.7倍的实际密集度,而情景A为1.1-1.5倍,即使目标密集度路径完全相同。只有当收入增长到足够大、使得"收入 × 密集度"超过递减的底线时,"密集度选择"才真正起作用。
可能的稳态相关性 :有人可能认为,需求疲弱(情景C)应该与低密集度相关(因为超大规模云厂商大幅削减支出),或者与高密集度相关(因为他们尽管回报不佳仍继续建设,追求AI领导地位)。模型将两者视为独立以展示完整的结果范围——如果分析师有特定看法,Part VII中的概率权重可以调整以反映预期的相关性。
当前观察到的密集度(已承诺期) :2025年3.9倍(2430亿资本开支 / 630亿收入),情景A下2026年降至3.7倍。远高于稳态水平,因为已承诺的资本开支将基础设施投资前置于收入之前。以下路径从2028年开始,届时支出变为密集度驱动——但实际资本开支不能以超过30%的年降幅下降(转型底线),因此密集度公式在2028-2030年随着已承诺合同到期而逐步生效——一旦支出下降到合同惯性不再重要的程度,密集度公式才成为约束条件。
目标密集度路径(公式输入)
| 年份 | 高 | 基准 | 低 |
|---|---|---|---|
| 2028 | 1.5倍 | 1.0倍 | 0.7倍 |
| 2029 | 1.2倍 | 0.7倍 | 0.45倍 |
| 2030 | 0.9倍 | 0.5倍 | 0.35倍 |
| 2031 | 0.7倍 | 0.45倍 | 0.3倍 |
| 2032 | 0.6倍 | 0.42倍 | 0.28倍 |
| 2033年以后 | 0.5倍 | 0.4倍 | 0.25倍 |
这些是用于计算"收入 × 密集度"的公式输入 。转型底线(最大30%年降幅,见下文)意味着转型期的实际 密集度高于这些目标。只有在底线不再约束之后,目标才成为约束条件——对于A×高组合立即生效,但对C×低组合要到2033年才生效。
实际密集度(转型底线后的实际资本开支/收入)
在已承诺期(2024-2027年),密集度是观察到的,因资本开支固定而收入不同,所以按收入情景变化:
| 年份 | 情景A | 情景B | 情景C |
|---|---|---|---|
| 2025 | 3.9倍 | 3.9倍 | 3.9倍 |
| 2026 | 3.7倍 | 4.7倍 | 5.3倍 |
| 2027 | 2.3倍 | 3.5倍 | 4.7倍 |
在转型期(2028-2030年),实际密集度取决于收入和转型底线:
| 年份 | A×高 | A×基准 | A×低 | B(所有) | C(所有) |
|---|---|---|---|---|---|
| 2028 | 1.5倍 | 1.1倍 | 1.1倍 | 1.6倍 | 2.7倍 |
| 2029 | 1.2倍 | 0.7倍 | 0.55倍 | 0.8-1.2倍 | 1.7倍 |
| 2030 | 0.9倍 | 0.5倍 | 0.35倍 | 0.4-0.9倍 | 1.1倍 |
在情景A中,转型较为平顺——密集度从2.3倍(2027年)降至1.5倍(2028年)再降至0.9倍(2030年)。在情景C中,底线起主导作用:密集度从4.7倍(2027年)仅降至2.7倍(2028年),到2030年仍为1.1倍——远高于任何目标路径。只有当收入大到足以使"收入 × 密集度"超过递减底线时,密集度路径的选择才有意义。
情景C的实际密集度在2028年维持在2.7倍——"资本开支陷阱"。已承诺的14,140亿美元是沉没成本,与需求无关,转型底线锁定了持续的高支出。疲弱的收入使该比率居高不下。这就是基础设施过度建设的运作方式:分母(收入)未能增长到与分子(支出)匹配的水平。
稳态基准值:
- 高(0.5倍):AI比云计算资本密集度高25%。前沿模型训练继续需要大规模集中计算;新架构阻止了完全的效率提升。
- 基准(0.4倍):与AWS稳态水平一致。正常的技术成熟路径。
- 低(0.25倍):激进的效率提升。固定能力下每token推理成本每年下降5-10倍(分解见第5.3节),定制芯片大幅降低单位成本,且这种效率转化为实际资本开支削减而非被再投资于更多产能。
2024-2027年资本开支是已承诺的,在所有组合中固定:
| 年份 | AI资本开支 | 依据 |
|---|---|---|
| 2024 | 1380亿 | 仅超大规模云厂商:(总计2300亿 × 60% AI占比)。各公司10-K年报合计。 |
| 2025 | 2430亿 | 仅超大规模云厂商:(四大实际3800亿 × ~64% AI占比)。经审计的2025年资本开支。 |
| 2026 | 4880亿 | 仅超大规模云厂商:(指引中位数6500亿 × 75% AI占比)。 |
| 2027 | 5450亿 | 仅超大规模云厂商:(估计约6800亿 × 80% AI占比)。基本已承诺。 |
范围:仅超大规模云厂商(Google、Microsoft、Meta、Amazon)。不含新兴云厂商资本开支(CoreWeave、Oracle AI、Lambda等)——新兴云厂商比较见第6.3节。
2028年起:AI资本开支 = max(AI收入 × 密集度, 上年AI资本开支的70%)
30%的最大年降幅上限反映了基础设施承诺的物理现实。数据中心建设需要18-24个月,GPU采购协议提前数个季度签署,电力合同跨越多年。即使超大规模云厂商有意愿,也无法在一年内削减50-70%的支出。密集度公式在2028-2030年随着已承诺合同到期而逐步生效——一旦支出已下降到合同惯性不再重要的程度,密集度公式才成为约束条件。
这一转型规则对高收入或高密集度组合影响甚微(A×高的资本开支不受影响),但显著推高了低收入和低密集度组合的资本开支。在极端情况下(C×低),底线连续六年(2028-2033年)起约束作用,在纯公式结果基础上增加了7320亿美元的资本开支。这体现了资本开支陷阱:在需求崩溃中,超大规模云厂商被锁定在远超需求的支出水平,正是因为这些承诺是在2-3年前、前景更为乐观时做出的。
Part IV:收入模型(自下而上)
4.1 ARR与实际收入——一个关键区别
ARR(年化运行率)是期末月收入 × 12。实际收入是该年所有月份收入的总和。对于快速增长的公司,两者差异显著,因为收入在年内逐月攀升。
举例:OpenAI 2025年初月收入约5亿美元(ARR 60亿),年末约16.7亿美元/月(ARR 200亿)。月均收入约11亿美元,因此2025年实际收入 = 约130亿美元(与Reuters报道一致)——而非200亿。
对于年增长率为G的公司,近似公式为:实际收入 ≈ (年初ARR + 年末ARR)/ 2
由于资本开支数据是年内实际支出的现金,本分析中所有ROI(投资回报率)计算均使用实际收入(非ARR)以保持一致性。ARR数据作为参考列出。
4.2 公司层面预测
| 公司 | 2025 ARR | 2025实际 | 2026 ARR | 2026实际 | 2027 ARR | 2027实际 | 2028 ARR | 2028实际 |
|---|---|---|---|---|---|---|---|---|
| OpenAI | 200亿 | 130亿 | 450亿 | 320亿 | 750亿 | 600亿 | 1000亿 | 880亿 |
| Anthropic | 90亿 | 50亿 | 380亿 | 240亿 | 700亿 | 540亿 | 1000亿 | 850亿 |
| Google Cloud AI | 250亿 | 200亿 | 350亿 | 300亿 | 500亿 | 420亿 | 700亿 | 600亿 |
| Microsoft AI | 180亿 | 160亿 | 280亿 | 230亿 | 400亿 | 340亿 | 550亿 | 480亿 |
| 开发工具 | 30亿 | 20亿 | 70亿 | 50亿 | 150亿 | 110亿 | 250亿 | 200亿 |
| 其余市场 | 100亿 | 80亿 | 250亿 | 180亿 | 450亿 | 350亿 | 700亿 | 580亿 |
| 合计 | 850亿 | 630亿 | 1780亿 | 1320亿 | 2950亿 | 2360亿 | 4200亿 | 3580亿 |
后续年份:2029年ARR 5550亿 / 实际4880亿。2030年ARR 6900亿 / 实际6220亿。
ARR与实际收入的差距在2025-2026年(增长最快的年份)约为25-30%,到2030年随增速放缓收窄至约10%。2025-2030年累计实际收入:约18,980亿美元,对比ARR累计22,230亿——如果错误使用ARR,会高估约15%。
各项预测依据:
- OpenAI:基于其自身2028年1000亿目标反推。假设消费端增速放缓,企业/API加速。
- Anthropic:基于当前每月新增13亿的速率,随基数增长而减速。与公司2028年700亿目标一致。
- Google Cloud AI:700亿以上云收入运行率中的AI专项部分。保守——并非所有云收入都是AI。
- Microsoft AI:从2025年1月披露的AI运行率130亿以上增长;基于Azure AI增长轨迹估计到2026年初已超200亿。Copilot渗透率仍低(4.5亿装机量中仅3.3%)。
- 开发工具:Cursor已达20亿且在加速。加上GitHub Copilot、Claude Code独立版、Windsurf等。
- 其余市场:50+家ARR超过1亿的公司的长尾。包含Scale AI、垂直AI(Harvey等)、AI基础设施。
4.3 收入重复计算说明
收入流经多个层级,在每一层都被计入:
终端用户向Cursor支付:0/月
→ Cursor向Anthropic支付API费用:约$8/月
→ Anthropic向Google Cloud支付:约$3/月
→ Google向NVIDIA支付:约.50/月
各层"报告ARR"合计:$32.50
实际终端用户支出: 0.00
膨胀系数:约1.6倍
2030年的6900亿总额可能对应约4300亿美元的实际独立终端用户支出。这对总可寻址市场(TAM)分析有影响,但不影响公司层面的收入预测(每家公司确实收到了其报告的收入)。
4.4 三种情景收入路径
ARR(年化运行率)
| 年份 | 情景A | 情景B | 情景C |
|---|---|---|---|
| 2025 | 850亿 | 850亿 | 850亿 |
| 2026 | 1780亿 | 1200亿 | 1000亿 |
| 2027 | 2950亿 | 1900亿 | 1300亿 |
| 2028 | 4200亿 | 2800亿 | 1550亿 |
| 2029 | 5550亿 | 3800亿 | 1700亿 |
| 2030 | 6900亿 | 5000亿 | 1850亿 |
实际收入(用于所有ROI计算——见第4.1节)
| 年份 | 情景A | 情景B | 情景C |
|---|---|---|---|
| 2025 | 630亿 | 630亿 | 630亿 |
| 2026 | 1320亿 | 1030亿 | 930亿 |
| 2027 | 2360亿 | 1550亿 | 1150亿 |
| 2028 | 3580亿 | 2350亿 | 1430亿 |
| 2029 | 4880亿 | 3300亿 | 1630亿 |
| 2030 | 6220亿 | 4400亿 | 1780亿 |
当前轨迹(2026年3月)正在追踪情景A。
4.5 宏观数据校验:AI收入占GDP和IT支出的比例
对收入情景的合理性检验——AI相对于整体经济有多大?
AI总收入占美国GDP的比例(GDP约2025年$30T、2030年$35T、2035年$40T,按名义增长率约3%计算)
| 年份 | 情景A | 情景B | 情景C |
|---|---|---|---|
| 2025 | 0.21% | 0.21% | 0.21% |
| 2030 | 1.78% | 1.26% | 0.51% |
| 2035 | ~2.6% | ~1.8% | ~0.5% |
以上数据存在重复计算(约1.6倍)。去重后的终端用户支出约为上述数字的60%(即情景A 2030年 ≈ 美国GDP的1.1%)。
AI收入占全球企业IT支出的比例(IT支出约2025年$5T、2030年$6.5T,Gartner估计)
| 年份 | 情景A | 情景B | 情景C |
|---|---|---|---|
| 2025 | 1.3% | 1.3% | 1.3% |
| 2030 | 9.6% | 6.8% | 2.7% |
与历史上类似规模的技术采用对比:
| 技术 | 可比阶段收入 | 占美国GDP比例 | 年份 |
|---|---|---|---|
| 云计算(IaaS+PaaS+SaaS) | ~$500B | ~1.8% | 2023 |
| 互联网广告 | ~$300B | ~1.0% | 2024 |
| 企业软件(全部) | ~$650B | ~2.2% | 2024 |
| 移动应用经济 | ~$400B | ~1.4% | 2024 |
| AI(情景A,2030年) | $622B | 1.8% | 2030 |
| AI(情景B,2030年) | $440B | 1.3% | 2030 |
评估:情景A的$622B(2030年,GDP的1.8%)将使AI大致达到当今云计算市场的规模——雄心勃勃但鉴于当前增长轨迹并非不可能。情景B($440B,1.3%)更接近互联网广告的规模——温和但仍然可观。情景C(
资本密集度数据提供了额外的宏观校验:在B×基准(2030年AI资本开支20B)下,仅超大规模云厂商的AI基础设施投资就将占美国GDP的约0.6%——相当于当今美国半导体行业的全部收入。
Part V:资本开支模型
5.1 3×3资本开支框架
AI基础设施支出由两个独立维度决定:收入增长(需求)和资本密集度(效率)。这构成了一个3×3矩阵,共九种结果组合(定义见第3.2节和第3.3节)。
2024-2027年:已承诺——所有组合固定
| 年份 | AI资本开支 | 依据 |
|---|---|---|
| 2024 | 1380亿 | 仅超大规模云厂商(经审计) |
| 2025 | 2430亿 | 仅超大规模云厂商(经审计) |
| 2026 | 4880亿 | 仅超大规模云厂商(指引中位数) |
| 2027 | 5450亿 | 仅超大规模云厂商(估计) |
| 合计 | 14,140亿 |
2028-2035年:AI资本开支 = max(AI收入 × 密集度, 上年AI资本开支的70%)
从2028年起,每年AI资本开支取以下两者中的较大值:(a) 当年AI收入 × 密集度比率,或 (b) 上年资本开支的70%。30%最大年降幅上限反映了合同惯性——2026-2027年承诺的数据中心建设和GPU订单无法在一夜之间取消(见第3.3节)。收入决定基础设施需求有多大 ;密集度决定需求如何有效转化为支出 ;转型底线决定支出实际能以多快的速度下降 。
截至2030年累计AI资本开支(十亿美元)
| 高密集度 | 基准密集度 | 低密集度 | |
|---|---|---|---|
| 情景A | $3,097B | ,449B | ,281B |
| 情景B | ,588B | ,283B | ,250B |
| 情景C | ,250B | ,250B | ,250B |
截至2035年累计AI资本开支(十亿美元)
| 高密集度 | 基准密集度 | 低密集度 | |
|---|---|---|---|
| 情景A | $5,569B | $4,298B | $3,463B |
| 情景B | $4,309B | $3,568B | $3,073B |
| 情景C | ,821B | ,728B | ,644B |
范围从,644B(C×低)到$5,569B(A×高)。转型底线显著压缩了下界:没有它,C×低将为约
范围说明:以上数据仅含超大规模云厂商(Google、Microsoft、Meta、Amazon)。含新兴云厂商的全行业AI资本开支约高8-10%——见第6.3节。
5.2 折旧计划
按5年直线法折旧,当最大的资本开支年份重叠时折旧达到峰值。已承诺的2025-2026年支出($7,310亿)产生的折旧压力在所有九种组合中持续到2030-2031年。
各超大规模企业披露的使用年限
| 公司 | 服务器/GPU | 网络设备 | 建筑/电力 | 土地 | 混合(披露值) |
|---|---|---|---|---|---|
| Alphabet | 6年 | 6年 | 7-25年 | 不折旧 | 约16年 |
| 微软 | 6年 | 6年 | 5-15年 | 不折旧 | 约9年 |
| 亚马逊 | 5年 | 5-6年 | 15-40年 | 不折旧 | 约12年 |
| Meta | 5.5年 | 5.5年 | 15-30年 | 不折旧 | 约11年 |
资产构成估计(来源:10-K不动产披露及行业分析)
| 资产类别 | 占AI资本开支比例 | 使用年限(模型) |
|---|---|---|
| 服务器与GPU | 约50% | 5年 |
| 网络设备 | 约10% | 6年 |
| 建筑、电力、冷却 | 约35% | 15年 |
| 土地 | 约5% | 不折旧 |
数据来源:Meta报告PP&E中41.5%为服务器/网络、28.6%为建筑。微软报告44%为计算设备、44%为建筑。亚马逊报告29%为服务器、31%为土地/建筑。谷歌报告56%为技术基础设施。行业估计(麦肯锡、高盛)建议AI专用数据中心约60%为IT设备。本文使用的50/10/35/5比例是基于超大规模企业的加权混合估计,侧重AI专用构成(服务器比例高于企业平均PP&E)。
对B×基准折旧计划的影响
在混合折旧下,每笔资本开支年折旧率为14.0%(第1-5年),而5年直线法为20.0%——早期折旧减少30%。但建筑折旧(每年2.3%)持续15年,形成长尾效应。
| 年份 | AI资本开支 | 5年直线法折旧 | 混合折旧 | 超大规模GP | GP − 5年法 | GP − 混合法 |
|---|---|---|---|---|---|---|
| 2025 | 43B | $76B | $53B | −$62B | −$39B | |
| 2028 | $382B† | $359B | 51B | $67B | −92B | − |
| 2030 | 20B | $380B | 79B | −30B | − |
|
| 2033 | 52B | 44B | 19B | 42B | − |
+3B |
| 2035 | 84B | 57B | 37B | 85B | +8B | +$48B |
折旧峰值从$385B/年(2029年)降至79B/年——降低27%。折旧盈亏平衡从约2034年提前至约2033年。
5.3 资本开支密集度——效率曲线
资本开支密集度(AI资本开支/AI收入)是关键的效率指标——资产周转率的倒数。2028年以后,它遵循第3.3节定义的路径。在已承诺期(2024-2027年),密集度是观察到的 ,因资本开支固定而收入不同,所以按收入情景变化:
已承诺期的观察密集度
| 年份 | 情景A | 情景B | 情景C |
|---|---|---|---|
| 2025 | 3.9倍 | 3.9倍 | 3.9倍 |
| 2026 | 3.7倍 | 4.7倍 | 5.3倍 |
| 2027 | 2.3倍 | 3.5倍 | 4.7倍 |
情景C的观察密集度在2027年前维持在4.7倍——"资本开支陷阱"。已承诺的
三个结构性力量驱动密集度从已承诺期峰值下降:
固定能力下每token推理成本每年下降5-10倍。 但这一总体数字需要分解。a16z创造了"LLMflation"一词,比较同一MMLU分数下最便宜模型的成本变化(GPT-3在2021年11月为$60/百万token → Llama 3.2 3B今天为$0.06/百万token——3年下降1000倍)。Epoch AI发现更大的范围:每年9倍到900倍,取决于能力水平,中位数约50倍/年。一项学术分解(arxiv 2511.23455)识别了各驱动因素:
- 硬件性价比:约1.3倍/年(摩尔定律轨迹下30%的改善)
- 算法效率:约3倍/年(量化、蒸馏、推测性解码、架构改进)
- 经济竞争 + 模型缩小:其余部分——更小的开源模型与商业模型竞争,以及API定价战压缩利润率
重要警示(杰文斯悖论):同一篇论文发现,尽管每token价格大幅下降,绝对基准测试成本保持持平或上升 ,因为实现更高性能需要更大的模型和更长的推理链。每token成本下降,但每任务的token消耗上升。这意味着每token的效率提升并不能1:1地转化为资本开支密集度的降低——随着计算变得更便宜,用户消耗更多算力,在基础设施层面部分抵消了效率提升。
资本存量成熟度 :早期年份需要全新建设的数据中心(土地、电力、冷却、网络)——这是一次性成本。后续年份则是在现有设施内渐进式的GPU更新换代。增加算力的边际成本大幅下降。
工作负载从训练转向推理 :训练需要大规模、集中的算力突发(数千个GPU运行数月)。推理是持续性的但每美元收入的资本效率更高。随着已部署模型趋于稳定、推理占主导,资本密集度下降。
NVIDIA-超大规模云厂商悖论 :密集度下降对超大规模云厂商有利 (每美元收入的资本开支更低 → ROIC更高),但对NVIDIA不利 (GPU采购减少)。在3×3矩阵中,NVIDIA的最佳结果(A×高:1.8%/年)是情景A中超大规模云厂商ROIC最差的情况(2035年7.5%)。两者处于密集度维度的对立面——每一美元使云AI更盈利的效率提升,就是NVIDIA少收到的一美元。
谁从密集度下降中受益——谁没有
驱动密集度下降的三个力量并非所有参与者均可平等获取的单一"学习曲线"。它们在受益者方面存在差异:
| 力量 | 年度影响 | 可获得性 |
|---|---|---|
| 硬件性价比 | 约1.3倍/年 | 普遍适用——任何购买新芯片的人都能获得改善 |
| 算法效率 | 约3倍/年 | 近乎普遍——技术在数个季度内公开发表,前沿实验室有小幅时间优势 |
| 资本存量成熟度 | 大幅,一次性 | 仅限现有玩家——需要已经建好数据中心 |
第三个力量是关键的差异化因素。全新建设的GW级数据中心成本80-120亿美元(土地获取、电网接入、冷却系统、网络骨干、物理安全)。一旦建成,在现有外壳内进行GPU更新换代的成本只是其中一小部分。2031年增加算力的在位超大规模云厂商只需支付新GPU和安装费用;新进入者则需支付整个设施加上GPU的费用。这是一个不会随时间减弱的结构性成本不对称——如果说有变化的话,随着最佳电力站点和光纤走廊被锁定,这种不对称在扩大。
对价值链各层的影响:
在位超大规模云厂商(Google、Microsoft、Amazon、Meta):到2027年已承诺的
新的基础设施进入者 :面临约3-4倍的全新建设密集度,而在位者以约0.5倍运营。这种结构性劣势解释了为什么新兴云厂商(CoreWeave、Lambda、Nebius)仍然是小众——与超大规模云厂商合作或服务于专门工作负载,而非大规模竞争。资本开支陷阱同时也是进入壁垒:使在位者ROIC承压的同一笔
基础模型公司(Anthropic、OpenAI) :处于混合位置——正在建设自有基础设施(Anthropic计划的500亿美元Fluidstack合作伙伴关系、OpenAI的5000亿美元Stargate项目),同时继续从超大规模云厂商租用。其自有数据中心遵循相同的成熟度曲线,但滞后2-3年。战略逻辑:自己获取资本存量成熟度的收益,而非永远为计算付出超大规模云厂商的利润率。风险:他们正在承担之前外部化的资本开支风险,且资产负债表比超大规模云厂商薄弱。
应用层(Cursor、Harvey、Glean) :完全不受基础设施经济学影响。他们租用API接口,受益于其他所有人 的效率提升——随着在位基础设施成熟,API价格下降,应用利润率提升。价值链中风险调整后回报最佳的位置:享有AI采用的上行空间,却不承担基础设施风险。
历史先例 :每一次重大基础设施过度建设都遵循这一模式。在光纤泡沫破裂中(1997-2001年),投入了2万亿美元,大多数建设者破产,幸存的公司或收购者以几分钱一美元的价格收购的基础设施上盈利运营。在云计算中(2006-2015年),AWS在近十年里大量投资才达到有吸引力的盈利水平,但到2020年达到33%的运营利润率——在竞争对手无法在更短时间内复制的成本基础上获得了超凡的边际回报。在铁路建设中(1840-1870年代),反复的破产摧毁了股权持有者,但物理基础设施完好无损,幸存者以自然垄断的方式运营了一个世纪。在每一个案例中:(1) 建设者通常亏损,(2) 基础设施存活下来,最终产生了强劲的边际回报,(3) 这些回报归于在位者和收购者而非新进入者,(4) 过度建设本身成为了进入壁垒。
AI基础设施的未决问题:技术变化是否足够快,使得物理基础设施在产生充足边际回报之前就折旧了?"价值梯级"模型(第1.3节)暗示不会——前沿GPU从训练梯级到推理再到批处理/边缘计算,在5年以上保持效用。但NVIDIA的2年架构周期(Hopper → Blackwell → Rubin)产生了相反方向的压力。Amazon将GPU使用年限从6年缩短至5年是市场当前的回答:介于两者之间。
5.4 敏感性分析:按使用年限假设的折旧
2028年按不同GPU使用年限计算的年折旧(B×基准资本开支含转型底线,情景B毛利$67B):
| 使用年限 | 2028年折旧 | 相对超大规模毛利 |
|---|---|---|
| 3年 | $472B | 毛利的7.0倍(严重亏损) |
| 5年(基准) | $359B | 毛利的5.4倍(亏损) |
| 6年 | 99B | 毛利的4.5倍(亏损) |
定性结论在所有九种组合中成立:无论折旧假设、密集度路径还是收入情景如何,AI毛利润最早到2030年代初(低密集度情况下)或永远不能(高密集度情况下)覆盖折旧。
Part VI:价值链经济学
6.1 各层收入和利润率
每1美元终端用户AI支出的分配:
| 层级 | 收入份额 | 毛利率 | 每 |
|---|---|---|---|
| 芯片制造商(NVIDIA、AMD) | 约35% | 63%(模型)/ 71%(NVIDIA报告) | $0.16 |
| 云基础设施(超大规模云厂商) | 约35% | 45-60% | $0.18 |
| 模型提供商(OpenAI、Anthropic API) | 约35% | 35-55% | $0.11 |
| 应用层(Cursor、Harvey等) | 约15% | 70-80% | $0.11 |
| 每 |
$0.56 |
6.2 谁承担资本开支?
资本开支的负担正在转移。超大规模云厂商仍承担大部分,但基础模型公司正越来越多地建设自有基础设施——这是从2023-2024年纯租赁模式的战略性转变。
| 参与者 | 资本开支敞口 | 收入增长 | 利润率特征 |
|---|---|---|---|
| NVIDIA | 极少(收入的3%) | 资本开支的衍生 | GAAP毛利率71%(模型63%),轻资产 |
| 超大规模云厂商 | 重(AI资本开支的大部分) | 中等(云服务费) | 毛利率40-62%,重资产 |
| Anthropic/OpenAI | 增长中(混合:自有+云) | 非常高 | 毛利率33-50%,正在改善 |
| Cursor/Harvey等 | 无(租用API) | 非常高 | 毛利率70-80%,轻资产 |
Anthropic:计划约500亿美元基础设施合作伙伴关系(Fluidstack,2025年;Reuters)+ AWS Rainier(50万-100万颗Trainium2芯片)+ Google Cloud TPU + 300亿美元Azure交易。OpenAI:5000亿美元Stargate项目(软银/Oracle/MGX,立即部署1000亿)+ 继续使用Azure。两家都采用混合模式——自有基础设施用于前沿训练,云服务用于推理和突发容量。
这一转变有两层含义:(1) 基础模型公司正在承担之前外部化给超大规模云厂商的资本开支风险,(2) 随着它们拥有更多技术栈,其毛利率将受到折旧的压力。应用层仍然完全是轻资产——价值链中风险调整后回报最佳的位置。
6.3 新兴云厂商资本开支——缺失的层级
Part VII中的ROIC分析使用的是仅含超大规模云厂商的资本开支(Google、Microsoft、Meta、Amazon——拥有经审计10-K年报的公司)。全行业AI资本开支还包括额外约8-10%来自新兴云厂商(CoreWeave、Oracle AI、Lambda、Nebius、Crusoe等)的支出,由于新兴云厂商的财务数据大多为非公开且不可审计,因此被排除在超大规模云厂商ROIC的分母之外。
估计的新兴云厂商AI资本开支
| 年份 | "其他"总资本开支(第1.2节) | 估计AI占比 | 新兴云厂商AI资本开支 |
|---|---|---|---|
| 2024 | 约100亿 | 60% | 约60亿 |
| 2025 | 约300亿 | 70% | 约210亿 |
| 2026 | 约450亿 | 75% | 约340亿 |
| 2027 | 约600亿(估计) | 80% | 约480亿 |
| 2028-2035 | 年均约800-1000亿 | 约80% | 约5000-6500亿 |
| 2024-2035累计 | 约6000-7500亿 |
这是超大规模云厂商累计AI资本开支(B×基准下$3,568B)的约15-20%——一个有意义但未被追踪的层级。
这对NVIDIA意味着什么
新兴云厂商对NVIDIA的依赖度不成比例地高。超大规模云厂商正在开发定制芯片替代方案(Google TPU、Amazon Trainium、Microsoft Maia、Meta MTIA),用于内部工作负载以替代NVIDIA GPU。新兴云厂商没有这样的替代方案——它们的整个商业模式就是出租NVIDIA GPU。
| 客户群体 | 占AI总资本开支份额 | NVIDIA收入占总资本开支比例¹ | NVIDIA收入 |
|---|---|---|---|
| 超大规模云厂商 | 约85% | 平均约21%(从28%降至18%) | 累计约$750B |
| 新兴云厂商 | 约15% | 约40-45%(无定制芯片) | 累计约70-300B |
| 合计 | 100% | 混合约24% | 累计约 |
¹ NVIDIA收入占总AI资本开支的比例——总AI资本开支包括数据中心建设、电力基础设施、网络、内存、存储、CPU和定制芯片,不仅仅是GPU/加速器采购。NVIDIA在仅GPU/加速器支出中的份额显著更高(超大规模云厂商约50-70%,新兴云厂商约90%以上),但总资本开支分母是ROIC分析的相关指标,因为所有资本开支都需要收回。
新兴云厂商提供了约15%的总资本开支但约26-29%的NVIDIA累计收入。这种不成比例随时间推移而增长,因为超大规模云厂商的NVIDIA份额在下降(定制芯片采用),而新兴云厂商的NVIDIA份额保持高位。
含义:NVIDIA的份额下降模型(第7.4节)主要由超大规模云厂商定制芯片驱动。新兴云厂商作为一个底线——一个不能轻易转向其他供应商的客户群。如果新兴云厂商增长快于超大规模云厂商(这是当前的趋势:CoreWeave年增长率>300%),NVIDIA的混合份额下降可能比模型假设的更慢。
范围说明:第7.4节中的NVIDIA自由现金流(FCF, Free Cash Flow)分析使用全行业AI资本开支(包含新兴云厂商),因为NVIDIA向所有基础设施买家销售。只有超大规模云厂商ROIC分析(第5.1节、第7.1-7.3节)使用仅超大规模云厂商的资本开支分母。
Part VII:投资回报预测
7.1 超大规模云厂商AI投资回报——3×3矩阵
假设:超大规模云厂商获取AI收入的55%。毛利率:40%(2025年)→ 62%(2030年)→ 73%(2035年),在所有组合中固定 (维持当前竞争格局)。所有收入数据为实际值(非ARR)。资本开支来自3×3框架(2027年前已承诺,2028年后为收入 × 密集度)。
由于毛利率保持不变,超大规模云厂商毛利润仅取决于收入:
各收入情景下超大规模云厂商年度毛利(十亿美元)
| 年份 | 情景A | 情景B | 情景C | 毛利率 |
|---|---|---|---|---|
| 2025 | 40% | |||
| 2026 | $31B | 4B | 2B | 43% |
| 2027 | $61B | $40B | $30B | 47% |
| 2028 | $67B | $41B | 52% | |
| 2029 | $51B | 57% | ||
| 2030 | 12B | $61B | 62% | |
| 2031 | 57B | $67B | 64% | |
| 2032 | $302B | 13B | $73B | 67% |
| 2033 | $350B | 42B | $80B | 70% |
| 2034 | $390B | 95B | $84B | 72% |
| 2035 | $419B | 85B | $87B | 73% |
| 累计 | ,291B | $610B |
B×基准——基准情景(详细)
| 年份 | AI收入 | 超大规模毛利 | AI资本开支 | 折旧 | 毛利−折旧 | 毛利−资本开支 |
|---|---|---|---|---|---|---|
| 2025 | $63B | 43B | $76B | −$62B | −29B | |
| 2026 | 4B | $488B | − |
−$464B | ||
| 2027 | $40B | $545B | 79B | −39B | −$505B | |
| 2028 | 35B | $67B | $382B† | $359B | −92B | −$315B |
| 2029 | $330B | 67B† | $385B | −81B | − |
|
| 2030 | $440B | 20B | $380B | −30B | −$70B | |
| 2031 | $526B | 37B | $330B | − |
−$52B | |
| 2032 | $578B | 13B | 43B | 70B | −$57B | −$30B |
| 2033 | $629B | 42B | 52B | 44B | −B | − |
| 2034 | $672B | 95B | 69B | 44B | +2B | −$3B |
| 2035 | $710B | 85B | 84B | 57B | +8B | + |
† 转型底线起约束作用(见第3.3节)。在纯密集度公式基础上增加了
- 折旧盈亏平衡:约2034年
- 截至2035年累计毛利−资本开支:−
,978B
A×低——超大规模云厂商最佳情景(详细)
| 年份 | AI收入 | 超大规模毛利 | AI资本开支 | 折旧 | 毛利−折旧 | 毛利−资本开支 |
|---|---|---|---|---|---|---|
| 2025 | $63B | 43B | $76B | −$62B | −29B | |
| 2026 | $31B | $488B | − |
−$457B | ||
| 2027 | 36B | $61B | $545B | 79B | −18B | −$484B |
| 2028 | $358B | $382B† | $359B | −57B | −80B | |
| 2029 | $488B | 67B† | $385B | −32B | − |
|
| 2030 | $622B | 12B | 18B | $380B | − |
−$6B |
| 2031 | $730B | 57B | 19B | $326B | −$69B | +$38B |
| 2032 | $819B | $302B | 29B | 63B | +$39B | +$73B |
| 2033 | $909B | $350B | 27B | 33B | + |
+ |
| 2034 | $985B | $390B | 46B | 28B | + |
+ |
| 2035 | $419B | 61B | 37B | + |
+ |
† 转型底线起约束作用。在纯密集度公式基础上增加了
- 折旧盈亏平衡:约2032年
- 年度毛利从2031年起超过年度资本开支
- 截至2035年累计毛利−资本开支:−
,172B
3×3汇总:截至2035年累计毛利−资本开支(十亿美元)
| 高密集度 | 基准密集度 | 低密集度 | |
|---|---|---|---|
| 情景A | −$3,278B | −,007B | − |
| 情景B | −,719B | − |
− |
| 情景C | −,211B | −,118B | −,034B |
每个格子都是负值。即使最佳组合(A×低)到2035年的累计赤字也超过1.1万亿美元。最差(A×高)为−$3.3万亿。转型底线使情景C尤为痛苦:三条密集度路径的赤字都集中在−.0-2.2万亿附近,因为底线迫使支出远超低收入所能合理支持的水平。在需求崩溃中,密集度路径几乎不重要——合同惯性起主导作用。
注:折旧盈亏平衡和资本开支回收衡量的是不同的事情。折旧盈亏平衡是损益表指标——AI何时不再拖累报告盈利?资本开支回收是现金流指标——年度毛利何时超过年度现金支出?超大规模云厂商会在收回实际投入的现金之前就报告"盈利"的AI部门(超过折旧)。
7.2 基础设施总回报——3×3矩阵
方法论说明:本报告全文使用的回报指标为年度超大规模云厂商毛利 / 累计AI资本开支——一种基础设施总回报指标。这不是机构定义中的ROIC(Mauboussin将ROIC定义为NOPAT ÷ 投入资本,包括营运资本,扣除税收和运营费用)。本文使用毛利而非NOPAT,是因为没有任何超大规模云厂商单独披露AI专属运营费用——Google Cloud和AWS报告了分部营业利润,但未将AI基础设施部分与一般云运营分开。毛利指标因排除了运营费用(分配至AI的研发、销售、管理费用)而高估了真实回报,但因排除了非资本开支基础设施价值(现有数据中心建筑、电力合同、土地)而低估了真实回报。作为交叉验证:以下为实际云业务部门数据(详见交叉验证表)。三大已披露部门的混合营业利润率约为35%。对超大规模云厂商AI毛利数据应用此比率,意味着营业利润 ≈ 毛利的35/55(按约55%毛利率计算)——即8.0%的"基础设施总回报"对应约5%的营业层面回报。但由于这些部门利润率涵盖所有云业务(AI与非AI),AI专属营业利润率可能更低,因此真实营业回报可能接近4-5%。
本报告中"ROIC"指的是这一基础设施总回报指标,除非另有说明。
分部营业利润交叉验证(2025年实际数据):
| 分部 | 收入 | 营业利润率 | 营业利润 |
|---|---|---|---|
| Google Cloud | $58.7B | 23.7% | |
| AWS | 35.4% | $45.6B | |
| Microsoft Intelligent Cloud | 42.0% | $44.6B | |
| Meta AI基础设施 | — | 未单独报告 | — |
这些数据涵盖所有云运营(AI + 非AI);没有超大规模云厂商单独披露AI专属运营成本。
基础设施总回报 = 年度超大规模云厂商毛利 / 累计AI资本开支(自2024年起)。
2030年ROIC
| 高密集度 | 基准密集度 | 低密集度 | |
|---|---|---|---|
| 情景A | 6.8% | 8.7% | 9.3% |
| 情景B | 5.8% | 6.6% | 6.7% |
| 情景C | 2.7% | 2.7% | 2.7% |
2035年ROIC
| 高密集度 | 基准密集度 | 低密集度 | |
|---|---|---|---|
| 情景A | 7.5% | 9.7% | 12.1% |
| 情景B | 6.6% | 8.0% | 9.3% |
| 情景C | 3.1% | 3.2% | 3.3% |
只有A×低在2035年达到可接受的ROIC(>10%),为12.1%。B×低在无转型底线的情况下曾突破10%,现在仅达9.3%。转型机制压缩了情景C内的ROIC差异——三条密集度路径在2030年产生几乎相同的ROIC(2.7%),因为底线迫使相同的累计资本开支,无论计划的效率如何。这是资本开支陷阱的量化表达:在需求崩溃中,资本纪律是不可能的。
7.3 盈亏平衡时间表——3×3矩阵
折旧盈亏平衡(毛利 ≥ 折旧的年份)
| 高密集度 | 基准密集度 | 低密集度 | |
|---|---|---|---|
| 情景A | >2035 | 约2033 | 约2032 |
| 情景B | >2035 | 约2034 | 约2033 |
| 情景C | >2035 | >2035 | 约2035 |
资本开支回收(年度毛利 ≥ 年度资本开支的年份)
| 高密集度 | 基准密集度 | 低密集度 | |
|---|---|---|---|
| 情景A | >2035 | 约2035 | 约2031 |
| 情景B | >2035 | 约2035 | 约2031 |
| 情景C | >2035 | 约2035 | 约2033 |
这些矩阵揭示了两个模式。第一,密集度仍然是两个指标的主导因素——高密集度无论收入如何都无法盈亏平衡。第二,转型底线引入了纯公式模型所遗漏的收入-密集度交互效应:在情景C中,即使低密集度也要到约2035年才能实现折旧盈亏平衡,因为底线迫使多年的支出远超需求。低密集度列中的资本开支回收,在无底线时统一约为2031年,现在C×低推迟到约2033年——资本开支陷阱在收入疲弱时延迟了两年的回收期。
7.4 NVIDIA回报——3×3矩阵(市场份额递减)
NVIDIA的收入是超大规模云厂商总资本开支 × NVIDIA市场份额的衍生。在3×3框架中,总资本开支 = AI资本开支 / AI占比(第3.1节)。在份额递减的假设下(见下文理由),NVIDIA的回报关键取决于密集度维度——但方向与超大规模云厂商完全相反 。
NVIDIA份额下降理由
三个结构性力量侵蚀NVIDIA的主导地位:
定制芯片:Google TPU(v5e/v6,为Gemini训练和推理提供动力)、Amazon Trainium/Inferentia(Trainium2于2025年出货,数十亿美元运行率)、Microsoft Maia(定制AI加速器,部署在Azure中)、Meta MTIA(用于推荐/排序的推理芯片)。每款芯片都替代了内部工作负载中的NVIDIA GPU。
AMD市场份额增长:MI300X在推理方面的性价比具有竞争力。数据中心GPU收入年增速>100%。预计2026年达到100-150亿美元。
推理主导的工作负载组合:训练需要最先进的GPU(NVIDIA优势)。推理对成本敏感,适合定制/替代硬件。随着推理占计算支出的70-80%,更便宜的替代方案获得份额。
预测NVIDIA份额:30%(2024年)→ 28%(2025年)→ 27%(2026年)→ 26%(2027年)→ 24%(2028年)→ 23%(2029年)→ 22%(2030年)→ 18%(2035年)。参照英特尔服务器CPU市场份额流失的历史先例(AMD实现竞争力后约每年4.5个百分点的相对下降),并考虑新兴云厂商(约90%依赖NVIDIA)和训练工作负载锁定的结构性底线。
假设:NVIDIA毛利率63%(相对2026财年GAAP报告的71%偏保守;下调反映来自AMD/定制芯片的竞争压力和可能的产品组合变化)。自身资本开支为收入的3%。自由现金流FCF = 收入 × 55%。
3×3 NVIDIA累计FCF 2025-2035(十亿美元)
| 高密集度 | 基准密集度 | 低密集度 | |
|---|---|---|---|
| 情景A | $871B | $676B | $556B |
| 情景B | $682B | $570B | $500B |
| 情景C | $464B | $452B | $440B |
3×3 NVIDIA在4.45万亿市值下的平均年度现金收益率
| 高密集度 | 基准密集度 | 低密集度 | 国债 | |
|---|---|---|---|---|
| 情景A | 1.8%/年 | 1.4%/年 | 1.1%/年 | 4.3%/年 |
| 情景B | 1.4%/年 | 1.2%/年 | 1.0%/年 | 4.3%/年 |
| 情景C | 0.9%/年 | 0.9%/年 | 0.9%/年 | 4.3%/年 |
转型底线对NVIDIA略微有利 :被迫持续的支出意味着在减速期有更多GPU采购。情景C的FCF压缩到$440-464B的窄幅区间,因为是底线而非密集度在驱动支出。NVIDIA从资本开支陷阱中受益。
概率加权预期回报 :使用收入情景概率(A:42.5%,B:37.5%,C:20%)和密集度路径概率(高:20%,基准:50%,低:30%):
预期累计FCF ≈ $593B → 在4.45万亿市值下平均年度现金收益率1.2%(累计FCF ÷ 年数 ÷ 市值——即平均现金收益率,非IRR),对比4.3%的无风险利率。
NVIDIA-超大规模云厂商悖论
密集度维度对NVIDIA和超大规模云厂商的影响方向完全相反:
| 组合 | 超大规模ROIC(2035年) | NVIDIA回报 |
|---|---|---|
| A×高 | 7.5%(情景A中超大规模最差) | 1.8%/年(NVIDIA最佳) |
| A×低 | 12.1%(超大规模最佳) | 1.1%/年(情景A中NVIDIA最差) |
NVIDIA受益于高 密集度——超大规模云厂商在GPU上大量投入。超大规模云厂商受益于低 密集度——以更少的资本开支获得同样的收入。每一美元使云AI更盈利的效率提升,就是NVIDIA少收到的一美元。这不是协调问题;这是价值链的结构性特征。
敏感性分析:份额下降速度(B×基准资本开支)
| 份额轨迹 | 累计FCF(2025-2035) | 4.45万亿市值下的回报 |
|---|---|---|
| 固定28%(乐观) | $692B | 1.4%/年 |
| 逐步28% → 18%(基准) | $570B | 1.2%/年 |
| 快速28% → 8%(激进) | $378B | 0.8%/年 |
| 国债(无风险) | — | 4.3%/年 |
在3×3矩阵的每个格子和每种份额轨迹下,4.45万亿市值的NVIDIA的回报都低于无风险利率。转型底线略微改善了NVIDIA的回报(减速期更多被迫的GPU采购),但不足以改变结论。
7.5 AI软件层回报
Anthropic(3800亿估值,20倍收入)
- 情景A实际收入路径:4B(2026年)→ $85B(2028年)→ ~
38B(2030年) - 毛利率:45% → 65%
- 2030年毛利:约$90B
- 按25倍毛利(成熟科技公司倍数):估值约,240B
- 从$380B起计:总计490% / 年化约56%(稀释前)
- 稀释后估计:年化25-35%
- 目标2028年实现现金流为正(较原定2027年推迟;所需稀释更少)
OpenAI(8400亿估值,42倍收入)
- 情景A实际收入路径:$32B(2026年)→ $88B(2028年)→ ~
32B(2030年) - 毛利率:33% → 55%
- 2030年毛利:约$73B
- 按25倍毛利:估值约
,815B - 从$840B起计:总计116% / 年化约21%(稀释前)
- 稀释后估计:年化3-6%(
15B累计亏损需要大量融资)
7.6 按成本基础的回报(边际价格问题)
市值不等于投入资本。它是边际价格(最后一笔交易)乘以流通股总数。使用概率加权NVIDIA FCF约$593B(3×3份额递减模型):
| 持有者群体 | 估计平均成本基础 | 11年FCF回报 | 已坐拥的收益 |
|---|---|---|---|
| 指数基金/长期持有 | 约 |
5.4%/年 | 4-15倍涨幅 |
| 2023-2024年买入者 | 约T | 2.7%/年 | 1.8-4.5倍涨幅 |
| 2025-2026年买入者 | 约$3.5T | 1.5%/年 | 1-1.8倍涨幅 |
| 今天的边际买家 | $4.45T | 1.2%/年 | — |
这解释了为什么"高估"的股票会持续高估:现有持有者锚定于未实现收益,没有急于出售的动力。边际买家设定价格,但仅代表少数持股者。
7.7 NVIDIA定价隐含假设——逆向DCF分析
3×3分析显示NVIDIA在$4.45T市值下的回报率为0.9-1.8%/年。但NVIDIA需要达到什么水平,其当前企业价值(约$4.40T,减去约$510亿净现金后)才算合理?这反转了问题:不从模型输出计算回报,而是求解隐含输入。
NVIDIA FY2026基准(截至2026年1月的财年):
- 收入:15.9B。数据中心:
93.7B(占总收入90%)。 - 自由现金流:$96.6B(FCF利润率44.7%)。$4.40T企业价值下FCF收益率:2.2%。
- GAAP毛利率:71.1%。营业利润率:60.4%。
- 共识FY2027收入:$360.7B(同比+67%)。FY2028:$467.7B(+30%)。
逆向DCF假设:10%折现率,3%终端增长率,40%终端FCF利润率(低于当前44.7%——假设竞争导致利润率压缩),10年显式预测期,Gordon增长模型计算终值。
证明$4.40T企业价值所需的隐含收入路径:
| 收入复合年增长率(10年) | 隐含2036年收入 | 隐含企业价值 | vs $4.40T |
|---|---|---|---|
| 15% | $873B | $3,148B | 72%——不足 |
| 20% | $4,535B | 约103%——盈亏平衡 | |
| 25% | ,011B | $6,503B | 148%——超出所需 |
在10年20%复合年增长率和40% FCF利润率下,NVIDIA的企业价值大致得到证明。这是当前价格中隐含的增长率。
关键问题:分析师共识 vs 3×3模型
华尔街共识(69位分析师)预测FY2027收入$360.7B(+67%),FY2028为$467.7B(+30%),5年收入复合年增长率约26%。将这些增长率前置加载,然后在第10年减速至约13-15%,得到FY2036约
3×3模型得出相反结论,因为它预测NVIDIA在超大规模云厂商资本开支中的份额将在十年内从28%下降至18%,原因是定制芯片(Google TPU、Amazon Trainium、Microsoft Maia)和AMD竞争侵蚀GPU主导地位。这种份额侵蚀导致NVIDIA的收入增速远慢于AI基础设施市场本身——模型的概率加权累计FCF在11年内约$593B,对应平均年FCF约$54B,不到NVIDIA当前 年FCF($96.6B)的一半。
分歧完全在于份额侵蚀 :
| 假设 | 隐含NVIDIA价值 | $4.45T下年化回报 |
|---|---|---|
| 共识(无侵蚀,约35%复合年增长率) | $5-6T+ | 5-8%/年 |
| 温和侵蚀(28% → 20%份额) | .5-3.5T | 1.2-2.1%/年 |
| 3×3模型侵蚀(28% → 18%份额) | 0.9-1.8%/年 | |
| 激进侵蚀(28% → 8%) | $0.7-1.0T | 0.6-0.8%/年 |
市场定价未体现有意义的份额侵蚀。3×3模型定价了显著侵蚀。两者都有合理依据——NVIDIA的CUDA生态系统和架构领先是真实优势,但每家超大规模云厂商都在投入数十亿美元开发定制芯片替代方案。以$4.45T押注NVIDIA,主要不是在赌AI增长;而是在赌NVIDIA能在历史空前的规模上维持竞争地位整整十年。
历史背景 :英特尔——上一个主导计算范式的公司——市值峰值约50B(2000年),年度FCF峰值
7.8 股东回报 vs. 基础设施回报——时序问题
第7.2节的ROIC数据衡量的是AI基础设施投资是否获得了充足的资本回报。但ROIC是一个时点比率(2035年毛利 ÷ 累计资本开支);它不考虑现金流何时 发生。对于进行这些投资的公司——及其股东——而言,时序至关重要。
AI资本开支周期在结构上是前置的:最大的资本支出(2026年$488B,2027年$545B)比收入基数大到足以产生匹配毛利的时间早数年。这造成了ROIC无法捕捉的资金时间价值问题 。
超大规模云厂商AI现金流净现值(至2035年,10%资本成本,$B)
| 高密集度 | 基准密集度 | 低密集度 | |
|---|---|---|---|
| 情景A | −,188B | − |
− |
| 情景B | − |
− |
− |
| 情景C | − |
− |
− |
每个格子都是负值。即使A×低——唯一2035年ROIC超过10%的情景——其净现值到预测窗口期仍为−
作为对比,同样是B×基准情景——2035年ROIC显示为8.0%——其净现值为−
终值至关重要——但仅对低密集度而言
2035年后的净现值未包含2035年后的现金流,如果AI业务在折旧完成的基础设施上产生强劲回报,这些现金流可能非常可观。但终值的大小关键取决于稳态净利润率——成熟期年度毛利与年度资本开支之间的差距:
| 密集度路径 | 毛利/收入 | 资本开支/收入 | 净利润率 | 终值影响 |
|---|---|---|---|---|
| 高(0.5x) | 40.15% | 50% | −9.85% | 永续现金消耗;终值为负 |
| 基准(0.4x) | 40.15% | 40% | +0.15% | 终值接近零(现值约 |
| 低(0.25x) | 40.15% | 25% | +15.15% | 终值显著为正(现值约$800-1,500B) |
在基准密集度下,超大规模云厂商毛利大致等于持续资本开支——AI业务在稳态下产生接近零的净现金流。这不是模型的缺陷;它反映了AI基础设施需要与收入成比例的持续再投资(GPU更新周期、数据中心扩张、电力基础设施)的结构性现实。与软件业务随规模扩大利润率不断提升不同,基础设施业务需要与所提供服务成比例的持续资本投入。
技术进步——每一代硬件(Blackwell、Rubin)大幅降低每token成本——在模型中主要通过密集度维度体现,而非利润率维度。2035年73%的毛利率已经定价了从当前40%大幅提升的效率改善。悬而未决的问题是,进一步的硬件和算法改进是转化为 更低的资本开支(低密集度路径,每美元基础设施支撑更多收入),还是仅仅以相同资本开支获得更多产能(基准/高密集度,超大规模云厂商将节省再投资于更多GPU)。第5.3节详细讨论了这一张力:每token推理成本每年下降5-10倍,但每任务token消耗上升(杰文斯悖论),竞争动态推动超大规模云厂商再投资而非收获效率。密集度路径——而非利润率假设——是稳态现金流生成的决定性变量。即使将毛利率推至85%(远高于任何现有云业务),在基准密集度下也仅增加6.6个百分点的净利润率;从基准转向低密集度则增加15个百分点。
只有低密集度路径产生的终值足以有意义地抵消累计赤字。纳入终值后:
| 情景 | 净现值(2024-2035年) | 终值(现值) | 总净现值 |
|---|---|---|---|
| B×基准(基准情景) | − |
~ |
− |
| A×基准 | − |
~$400B | − |
| A×低(最佳) | − |
~ |
+$324B |
¹ B×基准终值接近零,因为稳态净利润率仅为收入的0.15%。 ² A×低终值假设利润率达到约80%且密集度在2035年后维持0.25x——最乐观的可持续配置。
只有A×低产生正总净现值——且需要在收入和效率两个维度上同时达到最佳情况,加上2035年后持续的利润率改善。
对股东的意义
这在基础设施回报和股东回报之间造成了差距。一个项目可以显示出有吸引力的会计ROIC,同时却在摧毁为其提供资金的投资者的现值。机制很简单:$3.6万亿累计资本开支(B×基准)中的
将差距与超大规模云厂商估值中当前隐含的AI溢价进行对比,更为具体:
| 公司 | 市值 | 估计非AI价值¹ | 隐含AI溢价 |
|---|---|---|---|
| ~.3T | ~ |
~$600B | |
| Microsoft | ~$3.1T | ~ |
~ |
| Amazon | ~.2T | ~ |
~$800B |
| Meta | ~ |
~ |
~$300B |
| 合计 | ~$9.4T | ~$6.4T | ~$3.0T |
¹ 近似值:估计非AI自由现金流的25倍。
市场在四大超大规模云厂商中定价了约$3万亿的AI价值。模型的AI现金流净现值范围从−
- A×低结果(最佳收入和效率)——但也仅产生+$324B,大约是隐含溢价的十分之一
- AI对非AI业务的显著提升——更好的广告定向、企业生产力提升、搜索质量改善——产生超出AI收入模型所能捕捉的额外毛利
- 密集度降至远低于0.25x——AI基础设施成本大幅低于任何历史基础设施技术
核心论点不是超大规模云厂商被高估——市场反映的预期、风险偏好和信息超出任何单一模型的范围。核心论点是结构性的:即使AI基础设施投资获得了合理的资本回报(到2035年ROIC 8-12%),也不自动意味着进行该投资的公司的股东获得相应的回报。 前置的成本结构、基准密集度下接近零的稳态净利润率,以及当前估值中隐含的AI溢价,意味着股东回报取决于资本开支转收入模型本身无法独立交付的结果。
7.9 二阶效应——模型未能捕捉的部分
3×3模型将AI视为独立的基础设施业务:资本开支投入,云收入产出。但对超大规模云厂商而言,AI还改善了现有的非AI业务——广告、企业软件、电子商务、搜索——这些方式未被模型的收入线捕捉。这些二阶效应是弥合模型NPV(B×基准为−
广告——可量化的渠道
Meta和Google在2025年合计获得约$491B广告收入(Meta约
| 效应 | 证据 | 估计年度影响 |
|---|---|---|
| Meta GEM排名模型 | Q4 2025财报:Facebook广告点击提升3.5%,Instagram转化提升>1% | 约$7-10B增量广告收入¹ |
| Meta Advantage+自动化广告 | Q3 2025业绩说明会:$60B年化吞吐量;Meta商业资料:ROAS提升22% | 吞吐量,非增量² |
| Google Smart Bidding Exploration | Google Ads资料:参与活动平均转化提升19% | 约$5-10B增量搜索广告收入³ |
| 需求侧(AI公司购买广告) | 风投资助的初创公司拥有大额获客预算 | 约$5-15B(周期性,与融资相关) |
¹ Meta约
⁴ 推算估计。Meta的10-K报告Family of Apps收入为
保守估算:AI驱动的Google+Meta广告收入提升5-10% = 每年5-49B增量收入。按约60%的边际营业利润率(增量广告收入的边际成本接近零),每年产生
到2030-2035年,如果AI驱动的广告改善持续复合增长(更好的模型、更多数据、更广泛的采用),在增长基数上10-15%的提升可达每年$60-100B增量广告收入,产生$35-60B营业利润。这是有实质意义的:$35-60B/年按20倍估值倍数支撑$700B-1,200B企业价值——可能覆盖约$3T AI溢价的25-40%。
企业软件——与一阶收入的重叠风险
- Microsoft Copilot:470万付费用户,$30/用户/月 = 约
.7B运行率。渗透率为4.5亿Office装机量的3.3%。如果到2030年渗透率达到15-20%:约 4-32B年收入。按约85%毛利率,这是0-27B毛利——有意义但相对$3T AI溢价来说有限。 - Google Workspace AI:类似经济模型,较小的装机量。
- Amazon AWS AI服务:已包含在模型的AI收入线中(这些是"一阶"云租赁效应)。
重复计算风险:本模型的AI收入情景(第4节)对超大规模云厂商AI收入的定义较为宽泛,包括Copilot、Gemini等自有AI产品。如果Copilot和Workspace AI收入已包含在收入情景中,在此处再次计入将导致高估。广告提升是清晰的二阶效应(通过非AI收入线流转),企业软件的二阶属性则不太清晰——可能已被部分计入为一阶AI收入。下方汇总表因此将广告效应(清晰的增量)与企业软件(存在重叠风险)分开列示。
其他渠道——仅定性分析- 云粘性:AI工作负载创造转换成本(数据引力、在特定基础设施上的模型训练)。效应真实但不直接产生增量收入——它减少客户流失。
- 电子商务:Amazon的AI驱动搜索、推荐和供应链优化。规模化后有实质意义,但未单独衡量。
- 劳动生产率:AI编程助手、自动化运营、加速研发带来的内部效率提升。长期可能降低运营费用5-15%,但没有超大规模云厂商披露AI可归因的节省。
- 搜索质量:Google的AI Overviews可能在面对ChatGPT/Perplexity时保卫搜索市场份额。防御性价值(避免收入损失)而非增量收益。
这对AI溢价意味着什么
模型显示A×低(最佳情况)仅从AI基础设施产生+$324B总NPV。约$3T AI溢价意味着市场期望超越基础设施回报的收益。二阶效应——主要是广告和企业软件——是最合理的来源:
| 来源 | 估计2035年年利润 | 按20倍估值倍数的现值 | 占$3T溢价比例 |
|---|---|---|---|
| AI基础设施(A×低,最佳) | 终端约 |
+$324B NPV | 约11% |
| 广告提升(基数的10-15%) | $35-60B营业利润 | $700-1,200B | 23-40% |
| 企业软件(Copilot等) | 0-30B毛利 | $400-600B | 13-20% |
| 其他(搜索防御、生产率) | 未量化 | — | — |
| 可量化总计 | 33-50% |
即使采用较为慷慨的二阶效应估计,可量化的效应仅覆盖嵌入AI溢价的约一半到三分之二。其余部分取决于目前仅为定性的效应(劳动生产率、搜索防御)或超越模型最乐观格子的结果。
这不是超大规模云厂商被高估的论证——而是对需要实现什么的清算。AI溢价是合理的,如果:(1)基础设施回报达到A×低水平,且(2)广告和企业软件的二阶效应规模化实现,且(3)未量化的渠道(生产率、搜索防御)做出有意义贡献。三者都是可能的。三者是否同时很可能 发生是投资问题。
Part VIII:预测汇总
3×3框架
回报取决于两个独立维度:收入增长 (需求)和资本密集度 (效率)。收入决定AI市场能做到多大;密集度决定每一美元收入需要多少基础设施支出。已承诺的2024-2027年资本开支(
截至2035年超大规模云厂商累计AI资本开支 :,644B(C×低)到$5,569B(A×高)。仅含超大规模云厂商(不含约$600-750B新兴云厂商资本开支;见第6.3节)。转型底线压缩了下界——合同惯性阻止了即使在需求崩溃中的快速资本开支削减。
截至2035年超大规模云厂商累计毛利 :$610B(C)到,291B(A)
累计赤字(毛利−资本开支) :每个格子都是负值。最佳:−
收入维度——当前轨迹
当前轨迹(2026年3月)追踪情景A。据报道,Anthropic年化收入运行率达190亿美元(Bloomberg),OpenAI年化收入超200亿美元(Reuters),两者每月均增加超过10亿美元。企业采用正在加速。收入端的表现达到或超过了最乐观的预测。
密集度维度——悬而未决的问题
密集度维度是真正不确定性所在。当前信号喜忧参半:
- 支出加速 :超大规模云厂商2026年总资本开支指引为$6,750-7,150亿,较2025年实际的$3,780亿几乎翻倍。这是高密集度 行为——资本开支增速远快于收入。
- 效率提升 :固定能力下每token推理成本每年下降5-10倍(分解见第5.3节——仅约3倍/年来自算法改进,其余来自硬件和竞争性定价)。定制芯片扩展(TPU v6、Trainium2、Maia)。这些是低密集度 的推动因素——但尚未转化为支出削减,因为超大规模云厂商正将节省重新投入更多产能(杰文斯悖论)。
- Amazon缩短GPU使用年限 从6年至5年(2025年),表明更快的技术过时——高密集度 因素。
- GPU利用率据报告超过80% (各厂商自报;无跨厂商经审计数据来源),表明需求合理化了当前支出——与基准或高密集度一致。
2025-2026年观察到的密集度(情景A下约3.9倍降至约3.7倍)与已承诺的资本开支计划一致。真正的考验在2028-2030年,届时支出从已承诺转为密集度驱动。但转型底线意味着资本开支不能以超过30%的年降幅下降,因此即使2028年的路径也部分受2027年已承诺支出的约束。
囚徒困境 :当前行为与高密集度 路径一致——3×3矩阵中对超大规模云厂商和NVIDIA而言最差的列。竞争格局解释了原因:每家超大规模云厂商都理性地增加资本开支以避免在AI能力上落后。如果Microsoft建设更多GPU产能而Google不这样做,Google就有失去云AI客户的风险。如果Meta投资而Amazon不投资,Amazon就有在AI产品质量上落后的风险。每家个体的理性决策(多花钱)产生了集体的非理性结果(全行业高密集度,没人获得充足回报)。
这是一个经典的囚徒困境。低密集度——超大规模云厂商ROIC达到可接受水平的路径——需要以下之一:
- 协调 :超大规模云厂商集体同意收获效率提升而非再投资。考虑到反垄断约束和竞争激励,不太可能。
- 需求冲击 :经济下行或"AI寒冬"迫使资本开支削减,如同2001年光纤泡沫破裂时发生的那样。削减将是被迫的,而非战略性的。
- 需求有机吸收 :AI收入增长足够快,使现有产能足以满足需求——超大规模云厂商选择 放慢资本开支,因为现有容量已能满足需求。这是情景A的期望,但即使A×高也永远无法盈亏平衡。
光纤的先例具有启发性。1997-2001年,电信公司集体投入约2万亿美元建设光纤产能,每家都害怕落后。泡沫破裂迫使行业合理化——破产、以几分钱一美元的价格出售资产,最终幸存的公司在过度建设的基础上盈利运营。AI的关键问题:需求是否增长得足够快,使超大规模云厂商能选择 放慢(路径3),还是周期以需求崩溃收场、迫使他们这样做(路径2)?
关键洞察:密集度主导盈亏平衡
3×3分析最重要的发现:密集度比收入更能决定 AI基础设施投资能否收回成本。
| 指标 | 收入维度影响 | 密集度维度影响 | 转型底线影响 |
|---|---|---|---|
| 折旧盈亏平衡 | 中等(低密集度内2032-2035年) | 决定性(2032年 vs 永不) | C×低延迟3年 |
| 资本开支回收 | 中等(低密集度内2031-2033年) | 决定性(2031年 vs 永不) | C×低延迟2年 |
| 2035年ROIC | 大(3-12%) | 每行内影响大 | 压缩C行至3.1-3.3% |
| 累计赤字 | 中等 | 主导 | 压缩C行至−.0-2.2T |
低密集度叠加强劲收入(A×低)在约2031年实现资本开支回收。高密集度无论收入如何都无法盈亏平衡。但转型底线增加了第三个维度:在需求崩溃中,合同惯性使密集度路径几乎不相关——超大规模云厂商被锁定在无论计划效率如何都必须持续的支出水平上。
NVIDIA-超大规模云厂商悖论
NVIDIA和超大规模云厂商处于密集度维度的对立面:
- NVIDIA的最佳结果 (A×高:1.8%/年)是情景A中超大规模云厂商的最差结果 (ROIC 7.5%)
- 超大规模云厂商的最佳结果 (A×低:ROIC 12.1%)给NVIDIA 仅1.1%/年
以4.45万亿市值计,NVIDIA在所有九个格子中的平均年度现金收益率为0.9-1.8%——在每种组合中都低于4.3%的无风险利率。概率加权预期现金收益率:1.2%/年。转型底线略微收窄了回报范围(下限从0.6%提升至0.8%),因为被迫持续的支出意味着即使在不利情景中也有更多GPU采购。
超大规模云厂商回报——全景分析
基础设施总回报 (详见第7.2节方法论说明——此为毛利/累计资本开支,非基于NOPAT的ROIC;营业层面回报约低55%):3×3矩阵中只有一个格子到2035年达到可接受的基础设施总回报(>10%):A×低为12.1%。基准情景(B×基准)达到8.0%——在扣除运营费用之前就已低于大多数超大规模云厂商的资本成本。高密集度无论收入如何都不超过7.5%。情景C受转型底线约束,在所有密集度路径上都被困在3.1-3.3%——无论计划效率如何,转型底线迫使承担相同的累计资本开支。
| 高 | 基准 | 低 | |
|---|---|---|---|
| A | 7.5% | 9.7% | 12.1% |
| B | 6.6% | 8.0% | 9.3% |
| C | 3.1% | 3.2% | 3.3% |
3×3矩阵中只有A×低达到可接受的回报(>10%):12.1%。B×基准达到8.0%——在扣除运营费用之前就已低于大多数超大规模云厂商的资本成本。情景C受转型底线约束,在所有密集度路径上都被困在3.1-3.3%。在10%资本成本下,3×3矩阵的每个格子到2035年的净现值都为负——只有A×低在加入终值后转正(+$324B)。四大超大规模云厂商合计市值中隐含约$3万亿AI溢价,基础设施回报本身不足以支撑这一估值(二阶效应详见第7.9节)。详细分析见第7.2-7.3节(ROIC、盈亏平衡)和第7.8节(NPV、稳态经济学)。
需要关注的指标——领先指标
收入维度
| 指标 | 情景A信号 | 情景C信号 |
|---|---|---|
| Anthropic在$30-40B时的增速(2026年末) | 维持>80% | 降至40%以下 |
| 企业AI"大规模部署" | 2027年升至35%以上 | 维持25%以下 |
| OpenAI/Anthropic毛利率 | 向60%以上改善 | 停滞在40%以下 |
| AI SaaS定价趋势 | 稳定或上升 | 价格竞争趋零 |
密集度维度
| 指标 | 低密集度信号 | 高密集度信号 |
|---|---|---|
| 超大规模云厂商2027年以后资本开支指引 | 趋平或下降 | 持续加速 |
| 定制芯片占推理份额 | 2028年>30% | 2028年<15% |
| GPU利用率 | >85%(高效使用) | <70%(过度建设) |
| NVIDIA占资本开支份额 | 降至22%以下 | 维持25%以上 |
| 每任务 推理成本(非每token) | 每年下降>3倍(真实效率) | 持平或上升(杰文斯悖论) |
| 超大规模云厂商AI收入/资本开支比 | 每年改善>0.3倍 | 持平或下降 |