英伟达可能是科技史上最成功的"下注":它在 2006 年赌上一个名为 CUDA 的软件平台,花了十年时间没人看好,然后在 2023 年成为 AI 时代的基础设施。今天,这家公司每赚 100 美元,有 55 美元是净利润。
一、解码商业基因
英伟达的问题,可以压缩成一句话:如何让一块芯片,变成一个开发者离不开的平台?
1993 年,黄仁勋、Chris Malachowsky 和 Curtis Priem 在 Denny's 餐厅碰面,决定成立一家做图形处理器的公司。他们的洞察是:视频游戏是当时最吃算力的应用,且有巨大销量,可以作为"杀手级应用"来资助更大规模的研发。这个判断是对的——GeForce 系列显卡让英伟达在游戏市场站稳脚跟,但真正的押注在 2006 年。
那一年,英伟达发布了 CUDA(Compute Unified Device Architecture),一个让 GPU 可以执行通用并行计算的软件平台。这个决定的疯狂之处在于:它需要公司每年投入数亿美元,去建立一个开发者生态,而这个生态在早期几乎没有任何商业化回报。华尔街多次质疑:为什么一家芯片公司要花这么多钱做软件?
答案在 2012 年浮出水面。AlexNet 证明了深度学习可以在 GPU 上高效训练,而 CUDA 已经在那里等了六年。此后,每一个 AI 研究者学的是 CUDA,每一篇深度学习论文的代码跑在 CUDA 上,每一个 AI 创业公司的模型部署依赖 CUDA。英伟达卖的不是芯片,是一个已经被开发者锁定的生态系统。
它的 Job-to-be-Done 不是"提供算力",而是"让开发者无需改变工作习惯就能获得最强算力"。这个定位,让它在 AI 浪潮中几乎没有竞争对手。
二、赚钱的逻辑
英伟达的财务数据,是极端值的集合:[来源: StockAnalysis FY2026]
| 年份 | 营收 | 同比增速 | 毛利率 | 净利率 |
|---|---|---|---|---|
| FY2023 | $270 亿 | +0.2% | 56.9% | 16.2% |
| FY2024 | $609 亿 | +126% | 72.7% | 48.9% |
| FY2025 | $1305 亿 | +114% | 75.0% | 55.9% |
| FY2026 | $2159 亿 | +65% | 71.1% | 55.6% |
两个数字值得单独拎出来说:
毛利率 71%:这是硬件公司的极端值。台积电毛利率约 50%,Intel 约 40%,AMD 约 45%。英伟达能做到这个水平,是因为它的产品本质是"芯片 + 软件平台",而软件平台的边际成本趋近于零。客户买的不是一块 GPU,是进入 CUDA 生态的门票。
净利率 55%:每赚 100 美元收入,55 美元变成净利润。这是软件公司才有的水平,而英伟达是一家卖硬件的公司。2025 年净利润 $1200 亿,超过了 Alphabet($850 亿)和 Meta($550 亿),仅次于苹果和微软。[来源: Wikipedia, FY2026 数据]
收入结构分为四大块:
- 数据中心(占比约 85%):AI 训练和推理,H100/H200/Blackwell 系列是核心产品
- 游戏(占比约 10%):GeForce 显卡,曾经的现金牛,现在是品牌资产
- 专业可视化(占比约 3%):Quadro/RTX 系列,设计师和工程师工作站
- 汽车(占比约 2%):自动驾驶芯片,和特斯拉、奔驰等合作
数据中心业务的爆发是过去三年的主旋律——2023 年之前它只是几个业务之一,现在是绝对核心。
三、增长飞轮与护城河
英伟达的护城河不是 GPU 硬件,而是 CUDA 软件生态的锁定效应。
开发者锁定:全球 AI 研究者和工程师已经把 CUDA 作为默认开发环境。PyTorch、TensorFlow、JAX 等主流框架都优先支持 CUDA。换一个硬件平台,意味着重写代码、重新调参、重新训练——这个成本大到没有公司愿意承担。
软硬件协同:每一代新 GPU 都和 CUDA 版本深度绑定。H100 需要最新版本的 CUDA 才能发挥全部性能,旧版本 CUDA 无法在新硬件上运行。这种"强制升级"机制让英伟达的用户几乎不可能停留在老版本,也就不可能轻易迁移到竞争对手。
供应链优势:英伟达不自己生产芯片,全部交给台积电代工。但它和台积电签了长期产能锁定协议,在 CoWoS 封装产能稀缺时优先获得供应。2024–2025 年的"缺芯"危机中,英伟达是少数能持续出货的公司,而 AMD 和 Intel 的 AI 芯片出货量远低于预期。
飞轮逻辑:
- 硬件销售产生收入 →
- 收入投入 R&D 开发下一代 GPU 和 CUDA →
- CUDA 生态越强,开发者迁移成本越高 →
- 客户只能买英伟达的硬件 →
- 回到第 1 步
这个飞轮的关键是:每卖出一块 GPU,都在强化软件生态的锁定。竞争对手可以做出性能接近的芯片,但他们无法复制十几年积累的软件生态。
四、风险与隐忧
英伟达的三个结构性风险,都和"高度集中"有关。
第一,客户集中度过高。数据中心业务的五大客户(亚马逊、谷歌、Meta、微软、OpenAI)贡献了超过 50% 的收入。这些公司同时也是英伟达的潜在竞争对手——它们都在自研 AI 芯片,试图减少对英伟达的依赖。谷歌的 TPU 已经用于内部训练,亚马逊的 Trainium 和 Inferentia 正在对外销售,微软的 Maia 芯片也在推进中。如果这些客户成功把 30% 的算力需求转移到自研芯片,英伟达的营收会直接缩水 15%。[来源: 行业公开报道]
第二,地缘政治风险。英伟达最先进的 GPU(H100、H200、Blackwell)被美国禁止出口到中国。2023 年之前,中国贡献了英伟达约 20%–25% 的营收。禁令之后,英伟达只能向中国出口"阉割版" A800/H800,但这些芯片的竞争力远不如全功能版本。中国市场留下的空白正在被华为昇腾、寒武纪等本土厂商填补,一旦生态成型,英伟达可能永久失去这个市场。
第三,周期性风险。2024–2025 年的 AI 投资热潮,很大程度上是由"抢 GPU"驱动的——每家公司都想囤足够的算力,不管用不用得上。一旦 AI 商业化落地不如预期,或者模型训练需求饱和,数据中心投资可能迅速收缩。历史教训是:2000 年光纤投资热潮过后,通讯设备公司的营收腰斩。英伟达不是第一个在繁荣期被高估的公司。
五、终局
英伟达的天花板取决于一个核心问题:AI 算力的需求增长能持续多久?
如果当前的增长率再维持五年,英伟达的年营收会超过 $1 万亿,净利润超过 $5000 亿,成为人类历史上最赚钱的公司。这个情景的前提是:AI 应用持续爆发,算力需求指数级增长,且英伟达维持垄断地位。
更现实的判断是:英伟达正处于一个超级周期的顶峰,未来会进入"高利润 + 中速增长"的稳态。增速会从 60%+ 降到 15%–25%,但毛利率和净利率会维持在高位。它的护城河足够深,短期内没有竞争对手能打破 CUDA 的锁定。
这是一门好生意吗?答案是非常好。英伟达拥有硬件公司罕见的软件护城河、软件公司罕见的定价权、以及科技巨头中最干净的业务聚焦(它不做搜索、不做社交、不做云服务,只卖芯片和平台)。但它也站在一个危险的悬崖边:客户集中度过高、地缘政治不确定性、以及 AI 投资周期可能见顶。未来三年,它会证明自己是下一个 IBM(长期稳健),还是下一个思科(繁荣期过后估值永久回落)。
六、总结与点评
英伟达画布里最精妙的配合,发生在核心资源和价值主张之间。核心资源是 CUDA 软件平台,价值主张是"最强的 AI 算力"。这两者的关系不是"有好的资源才能提供好的产品",而是"因为有 CUDA,客户买我们的硬件是为了用 CUDA"。价值主张被核心资源重新定义了——英伟达卖的不是芯片,是进入一个生态系统的门票。这种"硬件 + 软件"的复合模式,比单纯卖硬件或单纯卖软件都要稳固。
整张画布最大的张力,在于高速增长和客户依赖之间的矛盾。英伟达的增长依赖于少数几个超大客户疯狂买 GPU,而这些客户恰恰是最有能力、也最有动力去摆脱英伟达依赖的公司。亚马逊、谷歌、Meta、微软都在自研芯片,不是为了省钱,是为了不被卡脖子。英伟达需要在不把自己变成"敌人"的前提下,继续从这些客户口袋里掏钱。这需要在产品创新和商业策略之间找到极其精细的平衡——继续让 CUDA 成为不可替代的标准,同时让客户觉得买英伟达的芯片比自研更划算。
如果只能跟踪一个变量,那就是 CUDA 生态的开发者留存率。只要主流 AI 框架仍然优先支持 CUDA,只要应届生学的是 CUDA 编程,只要创业公司的模型部署首选 CUDA,英伟达的护城河就不会被打破。但这个指标是滞后的——当开发者开始大规模迁移时,英伟达已经失去定价权了。真正需要关注的先行指标,是 AMD ROCm、英特尔 oneAPI 的开发活跃度,以及主流框架对非 CUDA 后端的支持进度。
参考资料
- [1] Wikipedia: Nvidia — 公司历史、财务数据、市场地位
- [2] StockAnalysis: NVDA Financials — FY2022–FY2026 收入、毛利率、净利率数据
- [3] StockAnalysis: NVDA Revenue — 历年营收增长轨迹