
反杀英伟达!亏损多年却一夜千亿,这家 AI 芯片公司凭什么炸翻美股?
一句话看懂:AI 芯片公司 Cerebras 在纳斯达克上市首日市值一度冲破千亿美元,靠的不是与英伟达正面竞争训练芯片,而是凭借晶圆级架构在 AI 推理这个细分赛道拿下了 OpenAI 超 200 亿美元的订单,为整个推理芯片行业确立了第一个公开市场的定价基准。
事件核心:发生了什么
Cerebras 于 5 月 14 日上市,发行价从 115 美元三次上调至 185 美元,募资 55.5 亿美元成为 2019 年以来美国科技公司最大规模 IPO。公司长期处于亏损状态,2024 年净亏损 4.816 亿美元,直到 2025 年才在 GAAP 口径下首次扭亏(净利润 2.378 亿美元)。其上市之路曾因最大客户 G42 贡献超 85% 收入而触发美国外资投资委员会(CFIUS)国家安全审查,2025 年 3 月才通过合规放行。招股书中最关键的订单来自 OpenAI:2026 年 1 月签署的价值超 200 亿美元的推理算力合同,以及附带的 3340 万股认股权证和 10 亿美元贷款。
为什么重要
Cerebras 的 WSE-3 晶圆级芯片通过将整片晶圆封装为单颗芯片,消除了 GPU 集群中常见的“内存墙”瓶颈。其官方数据显示,在特定条件下推理延迟约为 50 毫秒,而 H100 方案约为 800 毫秒,延迟差距达 16 倍。这不是英伟达的全面替代,而是在延迟敏感型推理这一高价值细分市场建立了可信的架构优势。更重要的是,这笔 IPO 验证了“非英伟达架构也能获得商业成功和资本认可”的命题。AI 芯片行业正从 GPU 主导向 GPU、ASIC、晶圆级芯片等多架构分化,推理已从训练的附庸变成独立的价值创造环节。
对用户/开发者/创作者的影响
对 AI 应用开发者而言,Cerebras 的上市降低了“推理成本被英伟达锁死”的预期。如果其低延迟、高吞吐量的方案能在云端推广,调用大模型 API 的价格和响应速度可能进一步下降。对使用图像生成、实时对话等延迟敏感型应用的创作者来说,专门的推理芯片意味着更快的回复体验。对企业和投资人而言,这是一个清晰的信号:AI 算力的竞争焦点正从“谁能训练出最大模型”转向“谁能以最低成本、最快速度提供推理服务”,选型时需关注训练和推理分离的可能性。
AI 工具推荐
想把多个 AI 模型放在一个入口?
GamsGo AI 集成 ChatGPT、DeepSeek、Gemini、Claude、Midjourney、Veo 等常用模型,适合写作、绘图、视频和日常 AI 工作流。
推广链接:通过此链接购买,我可能获得佣金,不影响你的价格。
值得关注的后续
第一,OpenAI 的 200 亿美元合同执行进度。该合同目前尚未贡献实质收入,其部署到 2028 年的节奏直接决定 Cerebras 未来三年的营收走势。第二,英伟达的反制。其 Rubin 架构预计 2027 年量产,主打推理场景,若能大幅缩小与晶圆级芯片的性能差距,Cerebras 的架构优势将被压缩。第三,客户结构的多元化能否落地。目前非关联方收入仅占 14%,过度依赖 OpenAI 和 G42 的风险是核心隐患。
来源:Readhub · AI


