​美国政府与科技巨头达成协议 评估 AI 模型的国家安全风险

​美国政府与科技巨头达成协议 评估 AI 模型的国家安全风险

美国联合科技巨头,将AI模型国家安全审查前置化

美国政府在人工智能安全监管上迈出了关键一步。近日,美国商务部下属的AI标准与创新中心(CAISI)已与谷歌DeepMind、微软和xAI等科技巨头达成协议,将在这些公司公开发布新AI模型之前,对早期版本进行国家安全风险审查。这项合作的核心在于将风险评估从“事后补救”提前至“发布之前”,对于理解前沿AI技术的潜在影响、平衡技术创新与国家安全具有里程碑意义。

从“自愿披露”到“协议审查”:一次监管思维的升级

过去,开发者与政府分享未发布AI模型的信息已是一种常见做法,但其形式和约束力往往不够明确。此次CAISI与多家头部公司签署正式协议,标志着这一流程的制度化。CAISI主任Chris Ford指出,独立且严谨的计量科学对于有效识别与网络安全、生物安全和化学武器相关的风险至关重要。这些协议的签署,将帮助联邦政府在关键节点上更好地为公共利益推进工作。

随着对下一代AI模型(如Anthropic的Mythos)潜在危险的担忧日益加剧,此类协议的重要性愈发凸显。科技行业和政府官员均担心这些强大模型可能被黑客利用。因此,Anthropic已决定限制Mythos的推广范围,并启动了名为“Glass Wings”的项目,旨在联合多家科技公司保护全球关键软件的安全。

全球监管棋局:美国与英国的同步布局

值得注意的是,这次合作并非孤立事件。微软同时宣布,已与英国政府支持的AI安全研究所达成了类似的审查协议。微软强调,在测试国家安全和公共安全风险方面,与政府进行紧密合作是必要的。这表明,主要AI模型在发布前接受政府审查,正迅速成为全球主要经济体的共识性做法。

尽管前特朗普政府曾考虑发布行政命令以加强对AI工具的监管,但最终未获执行。如今CAISI通过协议的方式推动监管,被视为一种更灵活、更具实操性的路径,既避免了立法扯皮,又确保了核心安全关切得到回应。

我的看法:技术创新的“安全护栏”正在建立

这一系列动作向行业释放了明确信号:AI的发展不再是纯粹的商业赛跑,国家安全正成为决定模型能否上线的前置条件。将审查权前置,虽然可能延长产品的发布周期,但能有效降低因模型能力失控而导致的灾难性风险。对于谷歌DeepMind、微软和xAI而言,主动接受审查不仅是合规要求,更是一种建立公众信任的战略选择。未来,这种“发布前审查”的机制极有可能演变为AI行业的全球标准,迫使所有参与者将安全视为与性能同等重要的核心指标。

celebrityanime
celebrityanime
文章: 864

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注