
AI 芯片「黑马」Cerebras 上市大涨 51%,市值达 4000 亿元:背靠 OpenAI,挑战英伟达,主打「史上最大」计算机芯片
一句话看懂:AI 芯片公司 Cerebras 于 5 月 14 日以每股 185 美元登陆纳斯达克,首日大涨约 89%,随后回落,截至本周收盘较发行价上涨 51%,市值达 602 亿美元(约 4000 亿元人民币)。这家成立于 2016 年的硅谷公司,凭借与 OpenAI 的 200 亿美元协议和自研的“史上最大”计算机芯片 WSE-3,试图在英伟达主导的 AI 算力市场中开辟新赛道。
事件核心:发生了什么
Cerebras 此次 IPO 募资约 55.5 亿美元,为 2026 年以来美国最大规模 IPO。公司核心产品是晶圆级引擎(WSE)芯片,将整片晶圆制作为单颗芯片,面积约为普通芯片的 100 倍。最新 WSE-3 芯片采用台积电 N5 工艺,晶体管数量是英伟达 B200 的 19 倍,在 OpenAI 的 GPT OSS 120B 数据集上,推理速度超过 3000 token/s,官方称比主流 GPU 云平台快 15 倍。2025 财年,Cerebras 实现营收 5.1 亿美元,净利润 8790 万美元,扭亏为盈。目前,OpenAI 是其主要客户,2025 年贡献了 24% 收入,而阿联酋穆罕默德·本·扎耶德人工智能大学贡献了 62%。亚马逊也计划将其芯片与 Trainium 协同用于 AI 软件运行。
为什么重要
Cerebras 的上市挑战了英伟达在 AI 训练和推理硬件领域的垄断地位。其晶圆级芯片设计独特,计算与存储高度集成,理论上减少了数据搬运开销,在特定推理场景下性能突出。但技术路线也有明显短板:WSE-3 仅配备 44GB SRAM,支持的最大上下文长度仅 128K,远低于当前主流大模型百万级别的长度要求,且由于芯片平面面积已用满,难以通过堆叠内存来扩展。同时,Cerebras 的财务健康度高度依赖 OpenAI——OpenAI 承诺购买 750MW 推理算力并承担数据中心相关成本,还提供 10 亿美元低息贷款。作为交换,OpenAI 将以近乎免费的代价获取 Cerebras 最多 12% 的股份,这部分将从 2026 年 Q1 起按比例冲减公司收入,导致毛利率进一步下滑(从 2025 年的 39% 预期下降),存在单一客户集中风险。
对用户/开发者/创作者的影响
对 AI 开发者和企业用户而言,Cerebras 为算力采购提供了英伟达之外的选项,特别是在低延迟推理场景(如实时对话、代码生成)可能更快。但目前其芯片对长上下文模型支持不足,不适合开发需要处理超长文档、完整代码库的 AI 应用。对于创作者使用大模型工具,目前看短期内不直接改变体验,因为 Cerebras 主要服务云平台(如 OpenAI),而非端侧设备。如果其推理云平台扩大开放性,开发者可能获得更便宜的 API 调用价格。但需注意,OpenAI 的独家协议意味着其他云服务商和厂商难以获得同等优先级的资源。
AI 工具推荐
想把多个 AI 模型放在一个入口?
GamsGo AI 集成 ChatGPT、DeepSeek、Gemini、Claude、Midjourney、Veo 等常用模型,适合写作、绘图、视频和日常 AI 工作流。
推广链接:通过此链接购买,我可能获得佣金,不影响你的价格。
值得关注的后续
第一,Cerebras 与 OpenAI 的合作能否落实 2GW 总量算力交付,协议终止条款中隐藏的财务风险如何演化。第二,WSE-3 的内存瓶颈是否有技术突破方案,例如通过异构封装集成更高速的存储技术。第三,其他云厂商(如亚马逊 AWS)是否大规模部署其芯片,从而分散客户集中风险并扩展生态。第四,英伟达是否会针对晶圆级架构的性能优势调整其产品路线或定价策略。
来源:Readhub · AI


