商汤科技:让伦理治理成为 AI 创新助力

商汤科技:让伦理治理成为 AI 创新助力

商汤科技:让伦理治理成为 AI 创新助力

一句话看懂:商汤科技 AI 伦理与治理委员会秘书长梅莹在专访中详细拆解了企业如何将抽象的 AI 伦理原则落地为可操作的产品审查流程,并指出伦理视角不仅能规避风险,还能为产品研发(如数字人、下棋机器人)提供创新机会。这一分享恰逢工信部等十部门发布《人工智能科技伦理审查与服务办法(试行)》,将伦理治理从讨论推向产业实操。

事件核心:发生了什么

商汤科技相关负责人详细披露了其内部 AI 伦理治理体系的具体运作方式。该公司早在 2017 年就提出了 AI 伦理原则,并设立了虚拟的“AI 伦理与治理委员会”。在实操层面,商汤建立了一个覆盖产品全生命周期的伦理审查平台:从项目立项开始,研发人员需提交工单对产品进行伦理风险分级(E0 至 E4),高风险(E4)产品需调整或放弃;产品发布前需二次审查确认建议已采纳;上市后还会对中高风险产品(E2、E3)进行抽查,形成闭环。审查重点覆盖数据层(隐私、质量)、模型层(可解释性、责任追溯)和应用层(包容性、场景安全性)。梅莹强调,伦理治理不应与业务对立,例如在“元萝卜”下棋机器人案例中,伦理团队建议将可能伤人的“夹子”机械臂改为安全磁吸设计;在数字人领域,伦理与业务部门合作设计了可信数字人理念,并推动了国标制定。

为什么重要

此次对话揭示了 AI 企业面对监管时的真实痛点与可行路径。当前行业普遍面临“内部治理机制跟不上 AI 发展速度”的困境,尤其是 3 月开源模型(如 OpenClaw)大火时,各大平台快速部署服务,但治理层面风险被忽视。商汤的实践表明,将伦理审查嵌入研发流程(而非事后补救),能帮助企业在合规基础上优化产品,甚至发现新商业机会。恰好工信部十部门新规出台,提升了行业对伦理问题的关注(商汤内部伦理手册消耗量在政策公布后明显加快),但各方在政策出台节奏、风险分级和审查范围上仍有分歧。商汤的案例为其他企业提供了一个从“组织搭建”到“工具落地”的参考范本。

对用户/开发者/创作者的影响

对于使用 AI 产品和服务的普通用户,这意味着未来接触到的生成式内容(如数字人、AI 生成视频)将有更明确的标识(水印)和隐私保护机制。对于开发者和创业者,商汤的经验提供了可复用的伦理审查框架:在产品立项时就引入伦理风险评估(数据→模型→应用),而非等到合规审查时才补课。特别是从事医疗、金融、交通等高风险应用的团队,需注意新政策要求对特定场景进行专家复核。内容创作者则应关注数字人、换脸等工具的应用提示和授权机制,避免因侵权或伦理问题导致下架。

值得关注的后续

  • 政策落地效果:工信部新规中的“人工智能科技活动清单”会如何具体执行?高风险等级如何定义?这直接影响一大批 AI 应用的上线节奏。
  • 企业治理工具化:商汤的“产品安全审查平台”是否计划对外输出?其他科技公司(如大模型厂商)是否会跟进搭建类似的自动化伦理审查工具?
  • 开源与伦理之间的张力:文中提到的“OpenClaw 大火”暴露了快速部署与治理滞后的矛盾,未来更多开源模型发布时,平台方是否会被要求强制进行伦理审查?

来源:Readhub · AI

celebrityanime
celebrityanime
文章: 888

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注