来源/硅基智能时代

当AI一本正经地胡说八道,把一位律师“判了三年有期徒刑”,技术的“幻觉”撞上现实的法律,会发生什么?

2024年9月,一个寻常的下午,南京的李小亮律师在百度上搜索自己的名字。结果让他愣住了。

搜索下拉框里,自动跳出了“南京李小亮律师判刑了吗?”“南京李小亮律师判刑了多少年”这样的联想词。

更绝的是,点进去后,百度的AI智能回答,竟然“一本正经”地编造了一个完整的故事:“三年,李小亮律师被判三年有期徒刑,被告人李小亮因犯爆炸罪,被判处有期徒刑三年。”

底下还“贴心”地配上了他穿着律师袍的职业照。


一个兢兢业业的律师,就这样被一个AI“定罪判刑”,成了个“赛博犯罪分子”。这荒唐的一幕,开启了中国生成式AI领域的“第一案”。

被AI“判刑”的李律师自然不能忍,一纸诉状将百度告上了法庭。

这个案子的一审、二审判决,清晰地为AI的“胡言乱语”划定了责任红线。

一审法院的判决很有意思,它精准地区分了两种责任:

对于搜索框里那些联想词,法院认为那是“用户搜索记忆”,是无数网友之前搜过留下的痕迹,平台没有主观加工,不构成侵权。

但到了百度“AI智能回答”这个环节,性质就变了。法院认定,这是平台主动加工、合成了文字和图片,捏造了贬损他人的犯罪信息,导致当事人的社会评价被降低。

法院认为,平台存在主观过错,构成了名誉侵权。

百度当然不服,上诉时抛出了AI行业经典的挡箭牌——“技术幻觉”。

他们的律师辩解道:AI都会产生幻觉,这是技术局限性,我们无法预测用户会怎么问,也无法预见AI会怎么答。而且,是李律师自己用了“诱导性提问”。

翻译一下就是:“AI发烧说胡话有啥办法,百度只是犯了一个AI都会犯的错误。”

但法庭上,法官的一个问题,让他“技术幻觉”这个借口显得有些苍白。

“在豆包、Deepseek上发问,为什么没有这些评价?”

是啊,大家都在同一个技术起跑线上,为什么别人家的AI没有对李律师“判刑”,就你百度AI“病”得这么有针对性?

这个反问,直接刺破了“技术无罪论”的表面泡沫,将问题引向了技术实现路径、内容审核机制甚至是价值对齐的深水区。

百度的代理人只能坚持“所有AI都有幻觉”的说法。然而,这句话的潜台词或许被解读为:别人控制住了幻觉,而你没有。

2026年3月12日,南京市中级人民法院作出二审判决:驳回上诉,维持原判。 百度AI合成虚假信息,构成名誉侵权。

然而官司赢了,事情还没完。判决生效后,百度公司迟迟没有履行那份书面道歉的义务。

双方尝试过和解,但没谈拢。于是,李律师向法院提交了强制执行申请。

昨天,也就是5月8日,法院通知李律师,百度的强制执行案即将立案。截至目前,百度仍未对此事进行公开回应。

就在李小亮律师等待强制执行的同时,北京的另一位黄贵耕律师,也遭遇了百度AI的“批量造谣”。

2025年5月,百度AI自动“创作”了黄律师威胁法官、伪造印章、介绍贿赂、非法吸收公众存款等一连串“罪行”,手法如出一辙——把公开新闻报道里的“某律师”“黄某”,直接替换成“黄贵耕律师”。

更可怕的是,这套AI系统似乎形成了一个“作恶闭环”。

用户只要问一句“黄贵耕律师怎么样”,AI就会自动联想出一连串诸如“有没有被处罚”“是否被吊销资格”等诱导性问题,点击任何一个,都能“欣赏”到更多AI编造的细节。

目前,黄律师索赔105万的案件也已在北京海淀法院立案,正在审理中。两位律师,一南一北,共同面对着AI“幻觉”带来的现实伤害。

这起“国内人工智能大模型侵权第一案”,看似只是一个名誉权纠纷,实则是一次至关重要的“压力测试”。

它测试的,是在技术狂奔的年代,法律、责任与商业的边界在哪里。

技术可以“幻觉”,但企业不能“装睡”。 法院的判决清晰地表明,“技术尚不成熟”可以是一个事实陈述,但不能成为一个免责金牌。

当一家企业选择将AI产品推向市场,它就必须为这个产品的输出内容承担相应的责任。这不仅是法律的要求,更是商业伦理的底线。

主审法官那句“为什么别人家没有”,问得尤其深刻。它提醒所有从业者,在“大模型幻觉”这个普遍性难题面前,投入多少资源进行对齐、审核、纠错,体现的是一家企业的选择与态度。

是选择“野蛮生长,出了问题再说”,还是“如履薄冰,将伤害降到最低”?

在现实的法律世界里,这是一次具有标杆意义的判决,为AI技术的“狂想”套上了责任的缰绳。

也让大众看到,法律不会因为代码的虚无而袖手旁观。这起案件之后,每一个AI的开发者都会明了,你创造的工具,映射着你的责任。

而更多的“李律师”们,也得以确信,在这个数字与算法编织的时代,他们守护个人名誉的权利,依然坚固地矗立在技术的浪潮前。