我写了一个 skill,用 AI 给 AI「除味儿」

我写了一个 skill,用 AI 给 AI「除味儿」

我写了一个 skill,用 AI 给 AI「除味儿」

一句话看懂:少数派作者小胡小胡0009 开发了一套名为 mp-article-writor 的 Skill,用于指导大模型在写作时消除典型的“AI 味”。通过对比同一篇由 Claude Opus 4.6 一次生成的获奖文章与经 Skill 重写后的版本,发现该 Skill 在减少戏剧化悬念、比喻链过度延伸、程式化过渡句等方面效果显著,但难以彻底根治排比句和小标题的对称结构。

事件核心:发生了什么

该 Skill 的核心设计并非简单的 prompt 模板,而是一套包含“理解意图、校准语感、确认大纲”三个前置环节的写作流程。在 AI 生成初稿后,通过三个隔离上下的 subagent(独立审读、事实核查、终审自检)对文章进行多轮修正。其中,“独立审读”subagent 重点审查 AI 味、逻辑和结构,“事实核查”subagent 专查事实性内容防幻觉,“终审自检”则对照自建的“自检清单”核对。该 Skill 还参考了卡兹克开源的 khazix-writer Skill,并借鉴了少数派的内容风格指南。测试中使用了 Gemini、GPT 和豆包等模型进行前期调研,最终由 Claude Sonnet 4.6 和 GLM 5.1 分别重写同一篇素材,结果发现 Claude Sonnet 4.6 在多数维度上更贴近人类写作风格。

为什么重要

这一实践揭示了一个深层问题:当前最强的大模型(如 Claude Opus 4.6)在自由生成长文时,仍会高频出现“不是 A 而是 B”句式、过度对称的小标题、程式化过渡句等结构性 AI 味。这意味着,即便底层模型推理能力极强,其默认输出风格依然与人类写作习惯存在明显偏差。该 Skill 的成功表明,通过“标点禁令”(禁用冒号和破折号)等间接约束,加上多轮独立审查,可以显著提升文本的自然度。但测试同时暴露了 AI 的固有缺陷——排比句和对称结构在总结段落中近乎无法根除,这为当前 AI 写作工具的能力边界划出了一条清晰的线。对于开发者而言,这意味着“写个好 prompt”远不如“构建一套完整的后处理与审查流程”有效。

对用户/开发者/创作者的影响

对内容创作者而言,不应迷信“顶级模型 + 详细 prompt”就能产出完美文章。该案例提供了一套可复用的工作流:在写作前先让 AI 确认意图和风格,写作后通过多个独立 agent 交叉审核,并明确禁用 AI 最依赖的标点和句式。这套方法论成本可控(仅需编写 Skill 描述和自检清单),上手门槛低,适合所有使用 ChatGPT、Claude 等工具的写作者。对开发者而言,该实践验证了 subagent 隔离上下文的策略可以有效防止 AI “盲目自信”的批改问题。同时,标点禁令作为一种极低成本的隐式约束,值得在更多场景中推广(如代码生成、翻译等)。对产品经理而言,这一案例说明“AI 味”不只是一个风格问题,更是用户体验的核心矛盾——用户对 AI 感知的“不舒服”往往来自这些细微的结构性表达缺陷,而非实质内容。

值得关注的后续

1. Skill 是否开源或形成可复用的工具? 目前该 Skill 仅由作者自用。如果能以 API 或插件形式开放,让其他创作者一键调用“除味儿”流程,将大幅降低使用门槛。2. 不同模型对“除味儿”效果差异多大? 测试中 Claude Sonnet 4.6 优于 GLM 5.1,未来升级的模型(如 GPT-5、Claude Opus 5)是否会天然减少这些模式,还是需要继续依赖后处理流程?3. 是否有通用化的“自检清单”标准? 作者借鉴了卡兹克的开源项目,若社区能汇总出一份面向中文写作的通用 AI 味自检规范,将推动整个内容创作生态的质量提升。

来源:少数派 · 热门文章

celebrityanime
celebrityanime
文章: 923

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注