
美国拟定人工智能安全行政令,未包含强制性模型测试要求
一句话看懂:美国正在起草一项新的AI安全行政令,但在最终版本中放弃了强制企业进行模型安全测试的要求。这标志着监管力度比市场预期更温和,但政策走向仍有不确定性。
事件核心:发生了什么
彭博社报道,美国白宫正在拟定一项关于人工智能安全的行政命令,该命令的核心目标是防范AI大模型被恶意利用等安全风险。然而,草案中并未包含业内此前广泛关注的“强制性模型测试”条款。这意味着,开发GPT-4o、Claude等前沿大模型的公司,暂时不需要在法律层面强制提交模型安全测试报告给监管机构。该命令目前仍在政府内部审议中,具体发布时间未定。
为什么重要
这个决定直接影响了AI行业当前的监管节奏。此前市场预期,美国政府可能效仿欧盟《人工智能法案》的部分思路,要求关键基础设施或高风险领域的AI模型上线前通过强制测试。此次放弃该要求,短期来看降低了AI公司的合规成本和产品延迟上市的风险,给OpenAI、Anthropic、Google DeepMind等公司留下了更大的自主治理空间。但同时也引发讨论:在缺乏统一测试标准的情况下,不同公司对“安全”的定义和执行力度可能差异巨大。
对用户/开发者/创作者的影响
对普通用户和API开发者:这意味着短期内GPT-4o、Gemini等模型的调用和接入不会受到强制中断或额外审核,应用层开发可以保持现有节奏。但需要警惕,若后续出现重大安全事件,监管可能立即加码,届时API接口或应用上架条件可能收紧。对企业采购方:在选择AI供应商时,仍需要自主评估模型的安全性和可解释性,不能仅依赖政策背书。对内容创作者:使用图像生成、文本生成工具创作内容的合规边界,暂时不会因为此令而收紧。
值得关注的后续
- 命令最终版本细节:行政令可能会包含“自愿性测试框架”或“行业自评估指引”,具体条款将直接影响企业的合规成本,应关注是否涉及算力出口、开源模型责任界定等敏感议题。
- 各州立法动向:在联邦层面松绑的同时,加利福尼亚州等地的AI安全法案仍在推进中(如SB 1047的后续),可能出现“联邦宽松、州级严格”的分裂格局。
- 行业自律与用户反馈:在没有强制测试要求下,主流模型厂商是否自愿公开更多安全测试数据,以及用户对模型输出准确性和安全性的投诉量,将是下一个政策窗口打开的关键指标。


