
在亿万富翁大卫·特珀看来,美光科技(MU)是最佳的人工智能股票吗?
一句话看懂:对冲基金亿万富翁大卫·特珀近期公开表态,认为美光科技(Micron Technology, MU)是一只“被低估的”人工智能股票。这一观点引发了市场对于AI算力基础设施中存储芯片角色的重新审视,关注点从GPU、网络设备延伸到了高带宽内存(HBM)这一关键环节。
事件核心:发生了什么
大卫·特珀(David Tepper),Appaloosa Management的创始人,在接受采访时明确表示,美光科技是他在AI领域最看好的持仓之一。他认为市场目前还没有完全理解美光在人工智能数据中心中的关键作用。这个表态出现在美光发布2025财年第二季度财报之后,该公司营收同比增长约58%至80.1亿美元,其中HBM3E(高带宽内存)产品贡献了显著增量。特珀的观点核心是:随着AI模型训练的参数量级增长,GPU对高带宽内存的需求几乎成倍增加,而美光是全球仅有的三家能批量供应HBM3E芯片的厂商之一,另外两家是三星电子和SK海力士。
为什么重要
目前公开信息显示,AI算力成本构成中,除GPU和网络设备外,存储子系统(HBM、DDR5、NAND)正在成为瓶颈。此前市场焦点集中在英伟达的GPU供货、台积电的封装产能,以及电力消耗上。但大模型推理和训练对内存带宽有着直接依赖——更大的模型、更长的上下文窗口都需要海量、高速的HBM。美光在这一环节的产能爬坡和良率表现,直接决定了AI服务器能否按计划出货。特珀的言论本质上是在提醒市场:AI硬件的下一个供需紧张点,可能不是GPU,而是HBM。
对用户/开发者/创作者的影响
对于大部分AI应用开发者而言,HBM等底层硬件的供需状况不会直接影响日常调API写提示词,但会通过两个渠道间接产生影响:一是模型训练成本。如果HBM持续供不应求,云厂商采购GPU集群的成本将居高不下,最终传导至API调用价格。二是模型能力天花板。目前限制模型“更聪明”的因素之一就是GPU显存容量和带宽,更多的HBM意味着可以支持更大的模型参数量和更长的推理上下文。对于需要本地部署开源大模型的企业用户来说,美光、三星、SK海力士的HBM供货节奏,直接决定了高端A100/H100/B200等显卡的价格走势。
AI 工具推荐
想把多个 AI 模型放在一个入口?
GamsGo AI 集成 ChatGPT、DeepSeek、Gemini、Claude、Midjourney、Veo 等常用模型,适合写作、绘图、视频和日常 AI 工作流。
推广链接:通过此链接购买,我可能获得佣金,不影响你的价格。
值得关注的后续
- HBM3E的产能爬坡是否按期完成:美光正在大幅扩充其HBM3E产能,预计2025财年HBM收入将从几十亿美元增长至百亿美元级别。如果良率或产能低于预期,其他两家(三星、SK海力士)的份额变化将直接影响AI服务器出货节奏。
- 终端需求是否被高估:目前主要的HBM采购方是英伟达,但英伟达自身也面临订单波动风险。如果下游云厂商(微软、亚马逊、谷歌)削减资本开支,HBM的订单可能会快速逆转。
- 地缘政治与供应安全:美光此前因中国网络安全审查受到限制,而HBM高度依赖先进封装技术。如果地缘环境变化,可能导致AI硬件供应链出现新的不可控因素,影响企业采购决策。


