太危险还是太昂贵?人类隐藏神话的真正原因

太危险还是太昂贵?人类隐藏神话的真正原因

太危险还是太昂贵?人类隐藏神话的真正原因

一句话看懂:Anthropic 发布的“Mythos”模型声称发现 Firefox 的 271 个漏洞,并因“太危险”而限制发布,但业内分析指出,这更像是一场营销秀——模型性能提升有限、成本极高,旧模型用同样算力也能发现类似数量漏洞,“危险”牌是古早的公关老招。

事件核心:发生了什么

Anthropic 近期推出代号“Mythos”的大模型,并附上两项关键宣传:一是该模型在 Firefox 代码库中发现了 271 个漏洞;二是公司认为模型过于危险,选择不完整公开发布。然而,HackerNews 上多位技术人士指出,这 271 个漏洞的数字本身是“廉价数字”。Anthropic 向参与测试的项目方提供了总额 1 亿美元的 Mythos 使用额度(平均每个项目约 250 万美元),用对应算力去跑旧模型(如 GPT-5.x Pro),完全可能发现 260 个甚至更多漏洞。事实对照:在 curl 等少量公开对比的代码库中,预算更低的所谓“弱模型”发现了数十个漏洞,而 Mythos 仅发现 1 个新增低严重度 CVE。

为什么重要

这揭示了 AI 行业一个常见的叙事陷阱:用“大数字 + 安全风险”双重标签来掩盖模型能力边际收益递减的事实。Anthropic CEO Dario Amodei 曾是 OpenAI 研究副总裁,曾在 GPT-3 只能输出 3-4 句连贯文本时就称其“太危险”,如今又对 Mythos 使出同一套路。本质上,这和 ChatGPT 4.5 发布时的情形相似:模型训练成本天价、推理速度慢,但相比前代能力提升有限。当技术竞争力不足时,营销包装——“算力差/安全门槛”就变成了遮羞布。这对行业竞争格局的影响是:大型玩家更倾向用叙事而非实质差异争夺关注,中小团队和开源社区恐更难拿到真实可对比的测评数据。

对用户/开发者/创作者的影响

对于开发者与企业采购方来说,核心教训是不要轻信单一漏洞发现数、代码扫描量等“亮眼数字”。它们高度依赖算力投入和评测设计。如果项目计划采购类似模型进行安全审计,应要求提供同预算下与上一代模型(包括开源模型)的平行对比,否则极可能为算力溢价买单。对于普通用户,所谓的“太危险不发布”更值得警惕:它实际等于“太贵/不太强但需要你相信它很强”,最终还是会以 API 或有限试用形式收费。内容创作者和播客在转述这类消息时,建议主动区分“测试结果”与“营销修辞”,避免成为情绪传播的一环。

GamsGo AI

AI 工具推荐

想把多个 AI 模型放在一个入口?

GamsGo AI 集成 ChatGPT、DeepSeek、Gemini、Claude、Midjourney、Veo 等常用模型,适合写作、绘图、视频和日常 AI 工作流。

了解 GamsGo AI

推广链接:通过此链接购买,我可能获得佣金,不影响你的价格。

值得关注的后续

1. 真正的能力检验:Anthropic 是否会公开 Mythos 与其他模型在固定算力预算下的标准漏洞挖掘基准测试(如 SWE-bench、CyberBench)?如果一直回避,基本坐实营销论。2. 竞争对手的反馈:OpenAI、Google 以及开源社区(如 DeepSeek、CodeLlama)是否会顺势推出针对代码安全审计的“性价比对比报告”?这可能重塑企业采购决策标准。3. 监管是否介入:若“太危险”被反复用作不完全开放的理由,监管机构(如 FTC、欧盟 AI 办公室)可能要求公司提供更透明的安全影响评估,而非仅靠一份白皮书或视频定调。

来源:hackernews

celebrityanime
celebrityanime
文章: 2077

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注