AI“幻觉”也得负法律责任!百度因AI生成虚假侵权信息被判道歉

AI“幻觉”也得负法律责任!百度因AI生成虚假侵权信息被判道歉

AI“幻觉”也得负法律责任!百度因AI生成虚假侵权信息被判道歉

一句话看懂:南京一名律师发现,百度“AI智能回答”功能错误称其“被判刑三年”,引发名誉侵权诉讼。法院终审判决百度构成诽谤,责令书面道歉。因百度拒不履行,案件已进入强制执行阶段。这是国内首起AI生成内容(AIGC)因“幻觉”导致侵权并进入司法强制执行的案例。

事件核心:发生了什么

2024年,江苏南京执业律师李晓亮在百度平台搜索自己名字时,发现平台“AI智能回答”功能生成了一段虚假信息,声称“李晓亮律师被判刑三年”,并在虚假文字旁附上其身穿律师袍的职业照片。李晓亮认为该内容严重失实,损害其社会声誉和职业形象,遂起诉北京百度网讯科技有限公司。

南京江北新区人民法院一审认定百度行为构成诽谤,判令其向原告出具书面道歉。百度提出上诉,2026年3月,南京市中级人民法院二审驳回上诉,维持原判。然而,判决生效后百度并未履行道歉义务。2026年5月8日,李晓亮向法院递交强制执行申请,江北新区法院已正式立案,标志着此案进入司法执行阶段。

为什么重要

本案的关键意义在于,法院明确拒绝了百度以“AI幻觉不可避免、不可预见”作为侵权抗辩的理由。此前,不少AI平台认为技术不完美带来的内容错误可以免于或减轻责任,但本案的终审判决与强制执行,实际上为行业划定了底线:平台作为AI服务的提供者,在享受技术带来的流量与商业价值的同时,也必须对输出的内容进行实质性审核和风险控制。

从行业视角看,这一判例直接影响国内大模型厂商(包括百度文心、阿里通义、腾讯混元、字节豆包以及开源模型社区)的产品设计逻辑。如果平台无法用“算法不可控”来免责,那么所有涉及公共展示的AI对话、搜索摘要、智能回答功能,都必须增加更严格的合规审核与过滤机制。

对用户/开发者/创作者的影响

对普通用户:当AI生成的信息涉及个人姓名、名誉、职业等敏感内容时,平台不再能以“技术不成熟”为挡箭牌。如果用户因此遭受名誉损失、被误解甚至被商业失信,已具备诉诸法律并执行判决的可行路径。这提醒所有用户,对AI生成内容中关于自身的信息保持警惕,并保留取证手段。

对开发者与平台:如果开发者正在训练或部署大模型(无论是基于闭源API还是微调开源模型),在未来产品上线前,必须把“内容真实性校验”作为一个独立的功能模块来开发,而非仅仅依赖模型本身的对齐训练。特别是涉及姓名、职业、法律判决、财务数据等高风险实体时,建议引入外部的权威数据源(如官方裁判文书库、工商信息库)进行后校验,否则可能面临直接的法律赔偿和行政处罚。

对AI内容创作者:使用AI辅助生成文章、点评或资料整理时,不能完全相信模型输出的“事实”。如果创作者将AI生成的虚假信息当作真实信息发布并造成他人名誉损害,可能承担连带侵权责任。

值得关注的后续

  • 执行结果将影响行业标准:如果百度最终在强制要求下公开道歉,将形成“教科书式”判例,后续类似案件的处理速度可能加快。如果百度采取申诉或拖延措施,将考验法院对AI侵权案的执行效率。
  • 监管部门对AI搜索的专项合规检查:此案可能促使网信办、市场监管总局等部门对AI搜索、智能问答产品进行专项整改或出台更细化的内容安全规定,例如要求平台在生成涉及个人信息的内容时需进行事实核验。
  • 大模型厂商的防御性更新:为了降低风险,预计各大厂商会加速推出“内容撤回/修改”的合规接口,并在用户搜索个人姓名时增加明显的“AI生成内容,可能不准确”的提示。同时,针对知识图谱类信息(如律师、医生、公务员等职业资质),可能直接接入官方数据库进行比对。

来源:AIbase

celebrityanime
celebrityanime
文章: 864

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注