
NVIDA 显卡凭啥做到 5 万亿市值:谁建 AI 中心谁要交 60% 份子钱
一句话看懂:Epoch AI 的研究揭开了 NVIDIA 5 万亿市值的核心原因:建设一个典型 1GW 容量的 AI 数据中心,每年 60% 的硬件折旧成本都流向了 NVIDIA 的 GPU。这意味着,每花 100 美元建 AI 算力中心,就有 60 美元是给 NVIDIA 的“场地费”。
事件核心:发生了什么
AI 研究机构 Epoch AI 发布了一份对典型 1GW 容量 AI 数据中心的拥有成本测算。结果显示,一个这样的数据中心前期建设需要 380 亿美元资本开支,年化总成本约为 85 亿美元。其中,服务器(按全部采用 NVIDIA GB200 NVL72 系统计算)的年折旧成本高达 50 亿美元,占总运营成本的 60%。相比之下,数据中心日常运营中占比最高的能源支出,每年仅为 6 亿美元。换句话说,电力成本远没有 GPU 折旧来得惊人。
为什么重要
这份成本结构清晰说明了 NVIDIA 为何能成为 AI 时代的最大赢家。无论 OpenAI 还是谷歌、微软、亚马逊,只要建设大型 AI 数据中心,NVIDIA 的 GPU 就是绕不开的“硬通货”。按 5 年 IT 设备、14 年设施折旧的假设,GPU 占据了数据中心成本的绝对大头。更关键的是,如果 AI 发展速度让 GPU 在 3 年内就过时(目前公开信息显示这更有可能),年化总成本将飙升至 120 亿美元,NVIDIA 的“抽成”比例只会更高。这也解释了为什么科技巨头纷纷延长设备折旧年限——为了让 AI 投资的财报数字更好看。
对用户/开发者/创作者的影响
对普通用户和开发者而言,这一成本结构最终会传导到 AI 服务价格上。大模型推理和图像生成的 API 调用费用,本质上是 GPU 折旧成本的转嫁。只要 NVIDIA 维持高端 GPU 的供应主导地位,AI 应用的使用成本就很难大幅下降。对企业采购决策者来说,选择非 NVIDIA 的 AI 芯片(如 AMD、Intel 或自研芯片)在短期内可能降低 60% 的硬件成本,但会面临软件生态不成熟、训练框架兼容性风险。对内容创作者,这意味着生成式 AI 工具的订阅费短期内难有显著降低。
AI 工具推荐
想把多个 AI 模型放在一个入口?
GamsGo AI 集成 ChatGPT、DeepSeek、Gemini、Claude、Midjourney、Veo 等常用模型,适合写作、绘图、视频和日常 AI 工作流。
推广链接:通过此链接购买,我可能获得佣金,不影响你的价格。
值得关注的后续
1. GPU 折旧年限的博弈:科技巨头会否继续延长设备折旧年限来美化 AI 投资报表?这背后是会计处理与硬件实际寿命的博弈。2. 非 NVIDIA 方案的可行性:AMD MI300X、Intel Gaudi 3 以及谷歌 TPU 能否在推理阶段提供足够性价比,从而降低数据中心中 GPU 成本占比?3. 电力瓶颈何时到来:虽然电力占比目前仅 7%,但随着 1GW 级数据中心成为标配,全球电网和可再生能源供应能否跟上节奏,可能成为制约 AI 扩张的下一个瓶颈。
来源:Readhub · AI


