ChatGPT 现在允许您指定一名可信联系人,如果您与 AI 的交互“表明存在严重的安全问题”,该联系人就会收到警报

ChatGPT 现在允许您指定一名可信联系人,如果您与 AI 的交互“表明存在严重的安全问题”,该联系人就会收到警报

ChatGPT 现在允许您指定一名可信联系人,如果您与 AI 的交互“表明存在严重的安全问题”,该联系人就会收到警报

一句话看懂:OpenAI 为 ChatGPT 上线“可信联系人”功能:当系统检测到用户与 AI 的对话涉及自残、自杀等严重安全风险时,会通知用户指定的亲友,同时引导用户寻求专业帮助。这一功能不替代危机热线,而是作为额外的人际支持层。

事件核心:发生了什么

据 TechRadar 报道,OpenAI 正在逐步为 ChatGPT 推出“可信联系人”(Trusted Contact)功能。用户可以在 ChatGPT 设置面板中指定一位年满 18 岁的亲友作为联系人。如果 ChatGPT 检测到用户对话“表明存在严重的安全问题”(如涉及自残或自杀意图),会先由一小支经过专门培训的团队在一小时内审核对话内容。审核确认风险后,系统会通过短信、邮件和 ChatGPT 应用向指定联系人发送警报。该警报内容“有意识地被限制”,不会透露具体聊天细节,仅告知联系人“用户可能遇到麻烦”,请其主动联系用户。

与此同时,用户也会收到提示,建议主动联系自己指定的联系人,系统会辅助生成一些推荐的沟通措辞。该功能已在 OpenAI 与心理健康专业人士合作的基础上开发,目前面向 18 岁及以上用户逐步开放。

为什么重要

这是 AI 对话产品在用户心理健康保护机制上的一个关键升级。过去,ChatGPT 已能识别高风险对话并引导用户拨打危机热线或紧急服务,但被动引导的局限性明显——用户是否真会主动求助并不确定。“可信联系人”将保护链条从单靠 AI + 专业热线,延伸至用户现实社交圈,让亲友可以主动发起关怀。OpenAI 在公告中援引专家观点指出,“社会联系是降低自杀风险最重要的保护因素之一”。这一设计也反映了业界对 AI 在心理健康领域边界的认知:AI 可以识别风险,但不应替代人类的人际支持。

从行业竞争角度看,此举可能促使其他主流 AI 聊天产品(如 Google Gemini、Meta AI 等)评估是否跟进类似机制。同时,它也为监管机构提供了一个可参考的责任分担模式——当用户因与 AI 对话出现极端行为时,平台如何更负责任地介入,而不只是免责声明。

对用户/开发者/创作者的影响

对普通用户:如果你愿意,可以设置一位亲友作为联系人。即使对方并非 ChatGPT 用户,也能通过基础通信方式收到警报。联系人需在一周内接受请求,否则需另选他人。信息不会外泄具体对话内容,隐私保护相对到位。但注意:此功能不能替代专业心理治疗,遇到严重情绪困扰时应优先拨打专业热线。

对开发者与企业客户:OpenAI 为这类安全机制构建了“人工审核+人际报警”的双重流程,对希望将 ChatGPT API 嵌入敏感场景(如心理健康咨询、教育辅导)的企业来说,这是一个合规和伦理上的加分项。但企业方仍需评估自身场景是否需要独立的安全审核流程。

对创作者/内容生态:该功能可能会影响内容创作中涉及敏感话题时的用户互动方式。如果创作者在 ChatGPT 内讨论或模拟高风险对话,系统同样可能触发警报,需注意使用场景。

值得关注的后续

1. 功能落地节奏:目前是逐步开放,未能在设置中看到该选项的用户可能还需等待数日或数周。能否覆盖全球所有区域,还需确认具体地区合规要求。

2. 竞品跟进:Google、Anthropic 等对手是否会在旗下 AI 产品中加入类似“人际联系人”或“监护通知”机制,将是观察行业安全标准变化的重要指标。

3. 隐私与误报风险:人工审核环节的准确度、以及联系人收到误报后是否造成不必要的担忧或冲突,是真正投入广泛使用后必须持续跟踪的实操问题。

来源:TechRadar

celebrityanime
celebrityanime
文章: 864

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注