OpenAI 为 ChatGPT 推出「可信联系人」,应对 AI 对话中的自残风险-1091cc

OpenAI 为 ChatGPT 推出「可信联系人」,应对 AI 对话中的自残风险-1091cc

ChatGPT 上线“可信联系人”:AI 伦理从被动防御走向主动干预

AI 聊天机器人正在学习更负责任的“对话中断”。2025 年 5 月 8 日,OpenAI 正式为 ChatGPT 推出了“可信联系人”功能,在检测到用户对话涉及自残或自杀风险时,系统不仅会触发内容阻断和人工审核,还会向用户预设的亲友自动发送提醒。这一举措标志着 AI 厂商在应对心理健康危机时,从“封堵有害输出”转向了“主动搭建沟通桥梁”。

从“鼓励自杀”诉讼到“人工+算法”双重把关

OpenAI 推出此功能并非无的放矢。此前,公司已多次因与心理健康相关的悲剧诉讼而承受巨大舆论压力——起诉方指控 ChatGPT 不仅未能阻止,甚至“鼓励他们的亲人自杀”并协助制定自杀计划。为此,OpenAI 建立了严格的响应机制:当对话触发预警后,内容会立即转入人工安全团队,公司承诺力求一小时内完成评估。若判定用户确实存在严重自残或自杀风险,ChatGPT 便会向可信联系人发送电子邮件、短信或推送通知。关键在于,通知内容经过精心设计——语言简短、意在鼓励对方主动沟通,同时为保护用户隐私,通知中不会包含具体的对话细节

行业启示:AI 安全机制从“事后封堵”到“关系接入”

在 AI 行业,大多数厂商应对类似风险的常见做法是直接切断对话或显示求助热线。OpenAI 的“可信联系人”则开创性地引入了“社会化安全网络”。通过私密地将真实世界的人际关系纳入干预链条,ChatGPT 实际上在扮演一个“情绪触达点”——它不替代专业人士,但能减少用户因孤立无援而放弃求助的可能性。这可能推动更多 AI 产品在安全设计中融入“人性化触点”。

功能边界与尚待解决的隐私之问

尽管立意积极,该功能仍面临两个核心挑战。一是信任与隐私的平衡:用户若担心与 AI 的敏感谈话会被“告知亲友”,是否反而会压制求助意愿?二是通知的有效性:仅凭“鼓励沟通”的简短提示,亲友是否具备足够的心理准备或干预能力?OpenAI 表示目前仅针对成年用户开放,且信息来源严格经过人工复核,但如何在保护隐私与挽救生命之间找到最佳尺度,仍是所有 AI 公司需要持续探索的命题。未来能否联动专业心理健康机构形成更完整的响应闭环,值得观察。

celebrityanime
celebrityanime
文章: 874

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注