美国与科技公司达成协议,将在人工智能模型公开发布前对其进行国家安全审查

美国与科技公司达成协议,将在人工智能模型公开发布前对其进行国家安全审查

美政府与科技巨头达成协议:AI 模型发布前需通过国家安全审查

本周二,美国商务部下属的 AI 标准与创新中心(CAISI) 宣布与 Google DeepMind微软 (Microsoft)xAI 达成重要协议。根据协议,这些公司在新 AI 模型公开发布前,必须将其早期版本提交给美国政府进行国家安全审查。这标志着联邦政府正式将前沿 AI 的监管端口前移至产品发布之前,是 AI 治理领域的一项重大进展。

审查什么?为何此刻至关重要?

此次审查的核心在于识别与 网络安全生物安全化学武器 相关的国家级风险。CAISI 主任 Chris Fall 强调:“独立、严谨的测量科学对于理解前沿 AI 及其国家安全影响至关重要。” 此前,AnthropicOpenAI 早在两年前就与拜登政府签署了类似协议,如今更多巨头的加入,反映出业界与政府对新一代 AI 强大能力的共同担忧——例如 Anthropic 的 Mythos 模型,其强大的能力被认为可能帮助黑客以前所未有的规模利用网络安全漏洞。Anthropic 甚至为此发起了跨公司的 Project Glasswing 项目,以协作保障关键软件安全。

政府介入:从自愿到系统化的监管跃迁

这一协议的签署时机耐人寻味。据 纽约时报华尔街日报 报道,特朗普政府正在考虑通过一项潜在的行政命令,为这些 AI 工具建立正式的政府监督流程。虽然政府将相关报道称为“猜测”,但 CAISI 的公告表明,系统化的审查已在落地。CAISI 指出,其已完成了超过 40 次此类评估,并且开发者通常会提交移除安全护栏的未发布模型,以便政府“彻底评估与国家安全相关的能力和风险”。这种先发制人的审查,标志着 AI 监管从企业自愿承诺,向政府主导的标准化评估迈进。

行业影响与战略博弈

对于微软而言,这不仅是对美国政府的承诺。同一天,微软还宣布与英国政府支持的 AI 安全研究所 签署了类似协议。微软在博文中写道:“检测国家安全和大规模公共安全风险,必须是与政府的协作努力。” 此举既是对自身技术可靠性的背书,也无形中抬高了全球 AI 巨头的准入门槛。而对于 Google DeepMind 和 xAI 而言,深度参与政府测试过程,将有助于其理解和应对监管要求,甚至可能在标准制定中占据主动。深度解读,AI 行业的“及格线”正在被重新划定:仅凭技术领先已不足够,获得安全认证将成为下一代产品的核心竞争力。

展望: 随着审查机制常态化,未来一切强大的基础模型从实验室走向公众的路径将不再是坦途。这场关于“如何安全地释放智能”的全球博弈,才刚刚进入深水区。

celebrityanime
celebrityanime
文章: 869

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注