
S型曲线救不了你
一句话看懂:“所有指数增长最终都会变成S型曲线”是AI讨论中一个常见的反驳观点,但现实案例——从联合国生育率预测到METR AI能力曲线——反复证明,人们总是过早地假设增长会放缓,而AI的发展可能远未进入平台期。
事件核心:发生了什么
2026年5月,博主Scott Alexander在文章中系统批驳了“S型曲线”这一AI风险缓释论点。该观点认为,AI能力的指数增长必然遭遇物理或经济上限,最终趋于平缓,因此无需担心AI会达到极高能力水平。然而,作者列举了多个经典误判案例:联合国对韩国、哥伦比亚等低生育率国家的预测年年失准,世界能源组织(WEO)对光伏部署的预测连年低估实际增速,以及2026年初Wharton商学院团队对METR AI能力曲线的预测——他们建模认为增长将放缓,但随后发布的下一代模型(图中星标位置)表现直接远超预期。这些案例表明,误判“拐点”何时到来才是常态。
为什么重要
这个争论直接关系到AI监管、投资和技术路线的判断。如果人们过早相信AI增长将“S型化”,就可能在算力基建、模型训练、开源生态等方面误判临界点。事实上,无论是物理极限(如音速记录中的螺旋桨→涡轮→冲压发动机的范式转换)还是经济激励,都可能重复出现,使增长周期远长于直觉预期。在缺乏对“智能本质”“缩放定律极限”等根本问题的深入理解时,作者提倡应用“林迪定律”:一项进程预期会继续的时间,大致等于它已经持续的时间。
对用户/开发者/创作者的影响
- AI开发者与研究者:不应基于“增长即将停滞”的假设来决定研究策略。缩放定律可能在更长周期内持续,因此继续投入基础算力和数据创新是合理的。
- 企业采购与决策者:在评估AI能力上限和部署成本时,应接受“可能不会在近期出现平台期”的预期,而非押注技术将很快触及天花板后成本骤降。
- 创作者与工具用户:图像生成、文本生成等AI能力可能持续快速改进,不要因为当前模型趋于平缓就认为技术已经成熟,应保持对模型迭代节奏的跟踪。
值得关注的后续
- METR下一版能力曲线是否会再次打破类似Wharton团队的预测模型?
- AI训练与推理的物理极限(如数据中心能耗、芯片制成)何时真正触发范式转换?
- 开源社区是否会因持续增长的规模化投入而形成新的技术壁垒?



