Meta启用AI视觉识别未成年用户,强化Facebook与Instagram年龄审核机制

Meta启用AI视觉识别未成年用户,强化Facebook与Instagram年龄审核机制

Meta 启用 AI 视觉识别“扫描”未成年人,社交平台的年龄审核迈入新阶段

为了保护未成年用户,Meta 正在其两大社交平台 Facebook 和 Instagram 上引入一套基于 AI 视觉分析系统 的年龄审核机制。该系统不再单纯依赖用户填写的生日信息,而是通过扫描用户照片和视频中的 身高、骨骼结构 等一般视觉特征,并结合用户在平台上的文本内容和互动行为,来综合判断用户是否未满 13 岁。一旦系统判定用户低于年龄阈值,其账号将被暂停,用户必须通过官方的年龄验证流程申诉才能恢复使用。

这项技术的核心价值在于它标志着社交平台从“被动信任”转向“主动识别”。过去,平台主要依靠用户自报年龄,造假成本极低。Meta 这套系统利用多模态 AI(结合视觉、文本和行为模式)进行判断,大幅提高了识别未成年人的效率和准确度。尽管 Meta 强调该技术不涉及人脸识别,但通过分析“整体视觉特征”进行年龄估计,在实际应用中仍可能引发关于隐私和准确性的讨论。

从“事后管理”到“预防式拦截”的产品升级

此次升级不仅仅是审核手段的强化。Meta 同步推进的 “青少年账户” 机制也在加速落地。该机制为青少年提供更严格的默认隐私设置,例如仅接收来自关注者的私信、隐藏可能有害的评论以及默认私密账户。目前,这一机制正从欧盟 27 国和巴西向全球扩展:美国版 Facebook 将首次引入,并计划在 6 月推广至英国和欧盟地区。

Meta 的布局是系统性的:先用 AI 视觉系统识别出可能的低龄用户,然后自动将其纳入功能受限的“青少年账户”体系,实现从“识别”到“管控”的闭环。这种产品设计上的重大转变,意味着平台将未成年人保护从一项合规义务,转变为内置于产品架构的默认体验。

行业影响:监管压力下的必然选择

Meta 此举的直接驱动力来自日益严峻的监管和法律压力。就在几周前,新墨西哥州的陪审团裁定 Meta 因在平台安全问题上误导公众并危害儿童安全,需支付高达 3.75 亿美元的民事罚款,并被迫进行结构性整改。高昂的违规成本正在倒逼全球科技巨头重新审视其未成年人保护策略。

Meta 的做法为行业树立了一个新标尺:当法律要求平台对用户身份承担更多核实责任时,单纯依赖用户输入将无法满足合规要求。视觉 AI 与行为分析结合的多模态身份推断,很可能成为未来社交平台、游戏公司乃至所有 UGC(用户生成内容)平台的标配能力。这虽然有助于净化网络环境,但也预示着用户在线隐私边界的进一步收窄。

展望未来,如何在不侵犯隐私的前提下精准识别用户年龄,将成为监管机构与科技公司博弈的核心议题。Meta 的这次尝试,既是技术方案的进步,也是行业合规竞赛的开端。

celebrityanime
celebrityanime
文章: 869

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注