人工智能“幻觉”被发现后两名内政部官员被停职-1e2f44

人工智能“幻觉”被发现后两名内政部官员被停职-1e2f44

AI“幻觉”翻车:南非内政部停职两名官员,政策论文引用被曝造假

就在人工智能(AI)工具席卷全球办公场景之际,一份至关重要的政府政策文件却因为 AI“幻觉”而翻了车。南非内政部(DHA)近日宣布,暂停两名高级官员的职务,原因是在其修订后的《公民、移民和难民保护白皮书》中,发现了一系列由 AI 生成的虚假参考文献。这一事件不仅揭露了政府机构在使用 AI 协助决策时存在的重大漏洞,也引发了关于技术信任与行政责任的深度讨论。

虚构的引文:从学术圈蔓延到国家政策

事件的核心问题出在文件的参考文献列表上。内政部在审查中发现,这些引文被判定为典型的“幻觉(hallucinations)”——即大型语言模型因缺乏可靠数据而生成的错误或虚构输出。更令人尴尬的是,这些凭空出现的参考文献在正文中根本没有被引用过,显然是事后由 AI 生成并附着于文档的。

涉事官员包括公民与移民部门的一位首席主任,以及负责起草文件的一位司长,后者将于下周正式停职。虽然内政部强调白皮书的政策内容依然准确,代表政府立场,但这份“独立的参考文献列表”显然成了引爆信任危机的导火索。

值得注意的是,这并非孤例。就在一周前,南非通信和数字技术部(DCDT)也不得不撤回其关于 AI 的国家政策草案,原因同样是文件中出现了 AI 生成的虚假来源和引文。数字技术部部长 Solly Malatsi 坦言:“最合理的解释是,AI 生成的引文未经适当核实就被纳入文件,这本来不应该发生。”这起“连环翻车”案表明,AI 幻觉已经跨越学术不端的边界,直接渗透到了国家级政策的制定流程中。

内政部紧急“补牢”:引入 AI 审核机制

面对这场尴尬,南非内政部的应对措施颇为果断,且具有前瞻性。除了立即对涉事官员采取预防性停职外,该部门还委托了两家独立律师事务所,分别负责纪律处分程序,并对自 2022 年 11 月 30 日(即 ChatGPT 首次公开发布的时间)以来所有由该部门制作的政策文件进行审查。

这无疑是一次釜底抽薪式的“溯源”——它承认了生成式 AI 问世后,政府部门的工作习惯可能已经发生了不可逆的改变。内政部在声明中直言,此次事件造成了“尴尬”,但将借此机会推动流程现代化。“今后,该部门将在内部审批流程中设计和实施 AI 检查与声明机制。”这意味着,未来提交的任何政策文件,都将需要人工附加一份“非 AI 生成”或“AI 使用已核实”的证明。

我的看法:这不是偶然,而是新常态的警钟

南非内政部的这起事件,本质上并非某个官员的偷懒,而是整个组织机构在技术冲击下未能及时适应新规则的系统性问题。当 ChatGPT 在 2022 年底成为公众工具时,许多组织并未预见到,它带来的最大风险并非直接代替人类,而是以“看起来很专业”的假象,迅速污染了信息生产的源头。

从学术论文到政府白皮书,AI 幻觉的杀伤力在于其“可信外表”与“空洞内核”之间的巨大反差。一个简单的参考文献列表,就能动摇一份经过无数轮跨部门协作和公众咨询的严肃政策文件的可信度。内政部“自 2022 年 11 月 30 日起审查所有文件”的决定,或许预示着全球公共部门即将进入一个“AI 审计”的新纪元。这不再是一个技术问题,而是一个关乎治理、责任和制度执行力的管理难题。在未来,如何使用 AI 而不被 AI 误导,将是对所有组织执行力的严肃考验。

celebrityanime
celebrityanime
文章: 864

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注