AI创业公司Anthropic正卷入一场备受瞩目的版权诉讼,而其自家AI聊天机器人“Claude”却在关键时刻出错——协助撰写引用数据时“幻觉”出一篇根本不存在的论文,导致法院当场驳回部分证词。

加州地方法院日前宣布,将驳回Anthropic一名数据科学家Olivia Chen提出的部分证词,理由是她引用了一篇根本不存在的《The American Statistician》期刊文章,而该引用是由Claude协助整理产生。

这起诉讼由环球音乐(Universal Music Group)、Concord、ABKCO三家音乐出版商提起,指控Anthropic未经授权使用其歌词训练AI模型Claude,构成版权侵权。

在4月30日的法院文件中,Anthropic主张只需抽样100万笔Claude与用户互动数据即可,来评估用户要求生成歌词的比率。然而,作为关键论据之一的学术引用却是“Claude捏造出来的”。

Anthropic的律师坦承错误,称这是“诚实的引用失误”,Claude仅被用来“美化格式”,但不慎生成了一则虚假文献,作者名称甚至是从未合作过的人。

法院最终认定这属于“单纯的AI幻觉错误”,虽非律师全权依赖AI产出,但也质疑为何人工校对未能尽早发现。

法院并未接受Anthropic提议的样本规模,而是要求其提供共500万笔Claude的实际输入与输出数据,期间涵盖2023年9月到2024年3月,并明确区分诉讼前后的使用记录。Anthropic必须于2025年7月14日前交付完整数据集。

Info-Tech Research Group分析师Brian Jackson指出:“AI引发的懒惰心态,正在法律界快速蔓延。”他认为,AI工具不应被视为能直接产出法庭文件的解决方案,而应是辅助法律助理或研究人员加快作业流程。

Santa Clara大学网络伦理中心主任Irina Raicu也指出,法律业界对AI工具普遍缺乏理解。她引用去年美国律师协会(ABA)发布的指引,强调律师在使用AI工具时,应特别注意保密义务、专业责任与披露义务等伦理规范。

根据研究,即便是专为法律设计的AI模型,也有高达六分之一的机率出现幻觉(错误内容)。因此,许多专家建议使用具备“检索增强生成”(RAG)技术的工具,确保回应内容来自于真实且可验证的法律数据库。

常见的法律专用AI工具有Harvey(由OpenAI支持)、Alexi、Clio等,这些工具通常可协助整理案例、法条与判例,提升工作效率,但“最终决策与审核责任,仍应由真正的律师负责”。

订阅制律师事务所创办人Mathew Kerbis指出:“通用型AI模型即使能找到案例,最差的情况就是根据训练数据凭空捏造出来。”

他强调:“真正可靠的工具,是以法律专业语料库训练的大型语言模型。”