我相信现在整个公司都处于人工智能精神病状态

我相信现在整个公司都处于人工智能精神病状态

我相信现在整个公司都处于人工智能精神病状态

一句话看懂:来自 Hacker News 的热议帖指出,随着 AI 生成的代码越来越多,整个软件系统正在走向一种“AI 精神病”状态——代码复杂到无人能懂、缺陷修复率下降而 Token 消耗攀升,最终可能导致系统崩溃。这并非对 AI 的否定,而是对当前“疯狂用 AI 写代码却不管后果”的做法的深刻警惕。

事件核心:发生了什么

多位开发者在讨论中提出一个观察:完全由 AI 编写的代码系统,在达到某种复杂程度后,人类将无法理解其全部逻辑。其缺陷修复率会逐渐下降,而每次修复所需的 Token(算力成本)却持续上升。最终,AI 引入的新变更带来的缺陷数量,可能超过修复的数量,导致系统趋于不稳定。讨论中提到了具体的场景,例如清理 GPT-4.x 时代的“潮流编码”项目,以及用 Claude 4.7 处理复杂重构的案例——这说明问题并非模型能力不足,而是缺乏系统和设计原则。帖子中甚至有人引用类似《侏罗纪公园》中的台词:“在一些情况下,它们是由其他计算机设计的,我们不知道它们到底如何工作。” 这种类比被用来警示当前 AI 依赖的风险。

为什么重要

这次讨论揭示了 AI 在软件工程中应用的一个关键盲区:效率和可维护性之间的矛盾。当前整个行业(包括大量闭源和开源项目)正沉浸在“用 AI 写代码等于快”的幻觉中,很少有人系统性地研究“AI 代码债务”如何处理。如果任由这种状态发展,未来 20 年,软件工程可能不得不重新发明一套全新的设计原则,就像当年从混沌中归纳出设计模式一样。对算力供应商而言,Token 消耗的指数级增长是短期利好,但长期来看,缺乏可控性的系统会反过来制约大模型的实用价值。

对用户/开发者/创作者的影响

对于普通开发者:依赖 AI 生成代码时,必须要求它“检查设计”或“提供架构建议”,而不是直接生成复杂的实现。对于企业开发团队:现行的大量依赖 AI 日志、聊天记录、甚至是击键记录来训练专用模型的流程,效率极低且不可持续。对于使用 AI 工具的内容创作者:类似情况也会出现——AI 生成的一段代码或一幅图像看似完美,但一旦需要修改或扩展,底层逻辑可能是“盲盒”。任何深度使用 AI 的人都需要建立自己的“验收标准”,而不是交付后就不管。

GamsGo AI

AI 工具推荐

想把多个 AI 模型放在一个入口?

GamsGo AI 集成 ChatGPT、DeepSeek、Gemini、Claude、Midjourney、Veo 等常用模型,适合写作、绘图、视频和日常 AI 工作流。

了解 GamsGo AI

推广链接:通过此链接购买,我可能获得佣金,不影响你的价格。

值得关注的后续

一是是否存在专门的“AI 系统清理顾问”这一新职业角色,甚至本身也是 AI Bot 来清理同类的遗留代码。二是 Claude 4.7 和 GPT-4.5 等新模型是否能规模化处理复杂重构的案例,值得观察其实际成功率和成本。三是在大企业(如 Oracle)和政府项目中,是否会爆发因为纯 AI 代码导致的重大事故——尤其医疗、金融等敏感领域,一个缺陷可能导致生命损失。

来源:hackernews

celebrityanime
celebrityanime
文章: 2097

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注