你的手机号恐遭 AI 全网广播

你的手机号恐遭 AI 全网广播

你的手机号恐遭 AI 全网广播

一句话看懂:近期全球多地用户报告,ChatGPT、Gemini、Grok 等主流 AI 聊天机器人正在向陌生人泄露个人手机号、家庭地址等隐私信息,且一旦泄露几乎无法删除。

事件核心:发生了什么

自 2024 年 3 月以来,Reddit、MIT Technology Review 等平台陆续报道了多起类似事件。以 Reddit 用户为例,其手机在过去一个月被大量陌生来电打爆,对方均声称“从 Google AI 拿到你的号码”。在以色列,28 岁的软件工程师 Daniel Abraham 发现 Gemini 将他的私人 WhatsApp 号码当作支付应用 PayBox 的客服热线提供给用户。华盛顿大学博士生 Meira Gilbert 测试发现,Gemini 能直接显示同事 Yael Eiger 的手机号和家庭地址。
Gizmodo 记者 Matt Novak 亲身测试:ChatGPT 准确给出他已停用的旧手机号(来自 2016 年向美国联邦贸易委员会提交的 PDF 文件)和旧地址。Grok 则能在提供简单提示词后一键输出素人的住宅地址、电话和家庭成员信息。Perplexity 和 Gemini 同样存在类似问题,只有 Claude 明确拒绝了分享私人联系方式。

为什么重要

这一现象暴露了 AI 模型训练数据中隐含的隐私风险。大模型在抓取公开 PDF、政府数据库、房产记录等数据时,不仅索引了可用信息,还会在用户查询时“复活”并输出这些原本仅对特定范围可见的敏感数据。与搜索引擎不同,AI 的生成式输出降低了隐私信息的获取门槛——陌生人无需使用高级搜索技巧,只需自然提问即可获得。目前,OpenAI、Google、xAI 等公司尚未提供有效的删除或溯源机制,导致信息一旦进入模型便难以撤回。

对用户/开发者/创作者的影响

普通用户:你的手机号、地址可能被 AI 抓取后向所有人开放,尤其是那些曾在网上发布过信息(如学术会议注册、政府文件、公开简历)的用户。建议定期检查自己信息在公开数据库中的存在情况,并谨慎在不可控渠道提交个人信息。
开发者:调用 AI API 构建应用时,需在输入层增加隐私过滤逻辑,避免模型在回复中泄露第三方个人信息。同时应关注平台是否提供数据删除接口。
创作者与公司:如果业务涉及处理用户数据(如客服系统、CRM 集成),需警惕 AI 工具被用于“人肉搜索”攻击,建议预先设置提示词拦截规则。

GamsGo AI

AI 工具推荐

想把多个 AI 模型放在一个入口?

GamsGo AI 集成 ChatGPT、DeepSeek、Gemini、Claude、Midjourney、Veo 等常用模型,适合写作、绘图、视频和日常 AI 工作流。

了解 GamsGo AI

推广链接:通过此链接购买,我可能获得佣金,不影响你的价格。

值得关注的后续

目前公开信息显示,OpenAI、Google 等尚未发布针对此问题的正式安全更新。值得追踪以下几点:1) 各平台是否会在训练数据中使用差分隐私或数据去重技术来屏蔽敏感个人标识符;2) 各地监管机构(如欧盟 GDPR、美国 FTC)是否会因此事件对 AI 公司发起调查或处罚;3) 是否会催生第三方隐私审计工具,帮助用户检查自己的信息是否被 AI 模型缓存。

来源:Readhub · AI

celebrityanime
celebrityanime
文章: 2072

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注