美银:2030 年 AI 数据中心市场规模预测达 1.7 万亿美元

美银:2030 年 AI 数据中心市场规模预测达 1.7 万亿美元

美银:2030 年 AI 数据中心市场规模预测达 1.7 万亿美元

一句话看懂:美国银行大幅上调 AI 数据中心市场规模预期,2030 年预测从 1 万亿美元提升至 1.7 万亿美元,其中超过七成资金将投入 AI 定制芯片(ASIC),用于数据中心的大模型训练与推理任务。

事件核心:发生了什么

美国银行发布最新报告,将 2030 年 AI 数据中心市场规模预测从之前的 1 万亿美元大幅上调至 1.7 万亿美元,增幅达 70%。在 1.7 万亿美元的总投资中,1.2 万亿美元将用于 AI 加速器(高于此前预测的 1 万亿美元),但核心推动力不再是英伟达的 GPU,而是以谷歌 TPU、亚马逊 Trainium 为代表的 ASIC 定制芯片。余下的 5000 亿美元支出里,数据中心 CPU 的投资从 800 亿美元升至 1100 亿美元,AI 网络芯片则从 2400 亿美元升至 3160 亿美元。

美银在报告中列出 AI 浪潮的核心赢家:首选为英伟达、AMD 以及博通。前两家是全球主要 AI GPU 供应商,博通则主导 ASIC 定制芯片设计,谷歌 TPU 正是与博通合作开发。此外,美光(内存)与 Marvell(网络及主控芯片)也被列为关键供应商。

为什么重要

当前谷歌、微软、亚马逊等巨头每年在 AI 基础设施上投入 7000 至 8000 亿美元,这一资本开支规模一度引发市场对于 AI 投资是否过热的质疑,甚至导致相关公司股价承压。美银此次大幅上调预测,释放出明确信号:大型云厂商不仅不会削减 AI 投资,反而会在 2030 年前持续加码。这与贝恩资本此前“2030 年 AI 行业需 2 万亿美元营收才能盈利”的判断形成对立观点,进一步加剧了市场对 AI 算力投入泡沫与长期价值之间的分歧。

尤其值得关注的是,美银将增长重心从通用 GPU 转向谷歌、亚马逊等自研的 ASIC 定制芯片。这意味着未来 AI 算力的技术路线可能分化:一方面,英伟达与 AMD 继续垄断通用 GPU 市场,适用于大模型训练与多样化推理任务;另一方面,云巨头通过定制芯片降低对单一供应商的依赖,在自有生态内实现更高能效比。

对用户/开发者/创作者的影响

对于 AI 应用开发者与 API 用户,ASIC 定制芯片的普及可能带来更低的推理成本。当谷歌和亚马逊使用自研芯片运行其大模型服务时,API 调用价格有望进一步下降,尤其是图像生成、内容审核、大规模文本处理等高算力消耗场景。

GamsGo AI

AI 工具推荐

想把多个 AI 模型放在一个入口?

GamsGo AI 集成 ChatGPT、DeepSeek、Gemini、Claude、Midjourney、Veo 等常用模型,适合写作、绘图、视频和日常 AI 工作流。

了解 GamsGo AI

推广链接:通过此链接购买,我可能获得佣金,不影响你的价格。

对于 AI 硬件采购决策者,企业需要关注 2027-2030 年间的芯片代际变化:通用 GPU 仍是最灵活的选择,但 ASIC 方案在特定模型推理上的性价比优势会持续扩大。AI 网络芯片投资翻倍也意味着数据中心内部通信架构(如 InfiniBand、以太网、NVLink 替代方案)将成为新的竞争焦点。

值得关注的后续

1. 英伟达下一代 AI 芯片(如 Blackwell 后继产品)的出货量能否在 2025-2026 年达到市场预期的 2000 万颗,这将直接影响 GPU 与 ASIC 之间的竞争格局。2. 谷歌、亚马逊的自研芯片量产进度和落地场景是否具备足够算力规模来支撑大模型持续迭代。3. 2026 年数据中心 DRAM 消耗量预计达全球总产量的 70%(来源:TomsHardware),若 AI 投资按上述预测增长,内存供应链可能出现结构性缺货,影响云服务定价。

来源:Readhub · AI

celebrityanime
celebrityanime
文章: 2452

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注