制定一致的人工智能政策

制定一致的人工智能政策

制定一致的人工智能政策

一句话看懂:针对企业内部流行的“AI Token 使用量排行榜”(Tokenmaxxing)这一管理指标,一位资深技术管理者撰写了一份清晰务实的人工智能政策,强调不强制使用、必须理解生成代码、且员工应具备离开 AI 工具也能完成工作的能力。这一事件揭示出,在 AI 工具爆发式渗透的 2026 年,组织层面的 AI 政策制定仍然极度草率。

事件核心:发生了什么

长期从事工程团队管理、曾任职于律师事务所的作者 Brian Meeker 在个人博客中批评了一个名为 Tokenmaxxing 的流行管理风向。Tokenmaxxing 是指企业通过创建内部排行榜,统计每位工程师使用了多少大模型 Token 来“鼓励” AI 工具采纳。作者指出,这种赤裸裸的 KPI 与二十年前高管拿着秒表记录律所助理效率的做法如出一辙——任何可量化的指标都会被“钻空子”。工程师可以轻松通过后台循环调用模型、浪费 Token 来登顶排行榜,而实际生产力毫无改善。

为此,他为自己的团队撰写了一份仅四句话的 AI 政策:1)无 AI 强制要求;2)必须理解每行 AI 生成代码的逻辑;3)失去所有 AI 工具后你依然能胜任工作;4)关心队友和客户。这份政策在网上引发了大量共鸣与争议,许多开发者表示自己的公司根本没有类似的文档,唯一的指令就是“用力用 AI,然后希望一切顺利”。

为什么重要

这一讨论之所以重要,在于它暴露了大模型行业当前最被忽视的问题:组织层面的 AI 采纳策略与工程实践之间存在严重脱节。很多企业盲目追求“AI 投入量”,却忽略了代码质量、员工自主性、以及长期技能积累。文章更提出一个有趣的逻辑悖论——AI 鼓吹者一方面强调不现在入局就要被抛弃,另一方面又说六个月后当前知识全部作废。作者反问:“既然六个月后就有更好的模型和技巧,我为什么不能等到那时再学?”这说明当前许多 AI 政策缺乏理性,本质上是一种管理焦虑下的跟风行为。

对用户/开发者/创作者的影响

1. 开发者与工程团队: 如果你是团队负责人或管理者,这份政策提供了一个可直接参考的模板。核心不在于字数多少,而在于是否与团队真实协作场景匹配。常见的“强制AI使用”政策可能适得其反,导致浮于表面的 Token 堆砌而非实质性效率提升。

GamsGo AI

AI 工具推荐

想把多个 AI 模型放在一个入口?

GamsGo AI 集成 ChatGPT、DeepSeek、Gemini、Claude、Midjourney、Veo 等常用模型,适合写作、绘图、视频和日常 AI 工作流。

了解 GamsGo AI

推广链接:通过此链接购买,我可能获得佣金,不影响你的价格。

2. AI 产品与 API 提供方: 像 Tokenmaxxing 这类指标的出现,说明很多企业目前仍停留在“用掉多少算多少”的维度来衡量 AI 效果。对于 API 服务商(如 OpenAI、Anthropic、Cohere 等)而言,这可能意味着未来的收费模式或企业版方案需要配套更多效果评估工具,而非单纯的 Token 计费。

3. 内容创作者与知识工作者: 当你面对“不学 AI 就淘汰”等压力型建议时,这篇文章提供了一个清醒的判断标尺:任何半年内就会过时的技能,都不值得现在盲目投入。更好的策略是理解核心原理、关注工具迭代趋势、再等模型成熟后直接使用更优方案。

值得关注的后续

1. 更多企业是否会跟进类似政策: 这篇文章已被 Hacker News 社区广泛讨论,部分公司可能开始重新审视自己的 AI 强制使用 KPI。
2. “代码理解”要求如何落地: 政策中强调工程师必须理解每行 AI 代码,这在实际代码复审(Code Review)中如何执行,可能成为新的组织实践亮点。
3. Token 计费模型的潜在变化: 如果大量工程师暴露了 Tokenmaxxing 行为,API 服务商可能会调整计费方式(比如增加效果权重或推出“有效产出”统计工具)。

来源:Hacker News (黑客新闻)

celebrityanime
celebrityanime
文章: 2155

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注