
13人团队挑战Transformer:新架构SSA算力暴减千倍,成本仅为Opus的5%
一家仅有13人的初创公司Subquadratic,今天用一款名为SubQ的模型震惊了整个AI行业。它全球首次采用了完全亚二次方稀疏注意力架构(SSA),在成本和算力上实现了对Transformer架构的碾压式突破:处理1200万Token上下文的成本仅为Claude Opus的5%,计算量暴减超过1000倍。如果这一架构得到验证,这将是自2017年“Attention is All You Need”以来,AI底层最重大的创新——直接动摇了Transformer过去九年的统治地位。
暴力计算时代的终结:SSA如何做到“更少,却更快”?
Transformer的核心“原罪”在于其二次方复杂度:每个Token都要和序列中所有Token进行两两比较,上下文长度每翻一倍,计算成本就飙升四倍。SubQ的SSA架构从根本上颠覆了这一等式。它不再进行“暴力”的全量计算,而是让模型根据内容“动态选择”值得关注的Token,只计算那些真正有意义的交互,跳过其余99%以上的无用计算。这意味着计算量随选中位置数量线性增长,而非序列长度平方增长。
实验数据极具冲击力:在100万Token长度上,SSA比标准密集注意力加上FlashAttention-2快52.2倍;在1200万 Token长度下,注意力FLOP减少了接近1000倍。更关键的是,这种速度与成本优势并未牺牲性能。在RULER 128K基准测试中,SubQ得分95%,超过Opus的94.8%;在SWE-Bench代码任务中,SubQ也以81.8%的得分力压Opus的80.8%。
13人创业公司的豪赌:估值5亿,三线产品齐发
这家成立于2024年、坐标迈阿密的公司,目前仅有两位联合创始人和11位博士研究员,却拿下了2900万美元种子轮,估值高达5亿美元。其产品线一次性推出三条:SubQ API、编码命令行Agent SubQ Code,以及深度研究工具SubQ Search。创始人希望通过这些产品证明,长上下文应用——无论是整个代码库还是长期运行的AI智能体状态——都能够以接近免费的成本实现。
然而,社区反应出现了严重分歧。支持者认为这是“2026年最疯狂的AI发布之一”,挖到了OpenAI CEO Sam Altman所说的“另一个架构的重大突破”。但怀疑者同样猛烈,OpenAI前研究员Will Depue第一时间指出,SubQ“几乎可以确定是基于Kimi或DeepSeek的稀疏注意力微调”,并直言这是一家“骗子公司”。
对于行业而言,SubQ的出现把悬念拉到了顶点。如果SSA被验证为真,Anthropic和OpenAI目前数万亿的估值逻辑将受到根本性挑战;如果是假,这将成为又一个“发布即巅峰”的反面教材。在技术报告和独立复现结果公开之前,整个行业只能屏息等待。但一个问题已经摆在了所有人面前:Transformer,真的要被终结了吗?


