人工智能
人工智能如何在法庭中应用
每天,各种司法系统专业人员进行法律研究,與客户沟通,管理法院案件和解释法律。他们的工作是安全和功能性社会的基础,这就是为什么很多人对提高生产力的前景感兴趣的原因。律师——尤其是公设辩护人——经常有大量的案件。法官写下异议意见,这可能会使未来法律诉讼变得复杂。法规和法令不断变化。在这个复杂的系统中,人工智能(AI)已经成为一种自动化耗时的行政流程的手段。
法庭中人工智能的日常应用
律师的大部分工作时间都花在耗时的行政任务上,而不是在法庭上说服陪审团。他们花费80%的时间收集信息,只有20%的时间用于分析和影响。为了建立案件,他们必须仔细检查案例法、法规和法令。人工智能可以简化这些任务,节省他们数不清的时间。
人工智能助手可以帮助律师优化日程和管理案件负担,克服排期问题。生成人工智能可以帮助他们和他们的工作人员进行法律研究。法官可以在做出保释决定时参考算法风险评估工具。
该工具也可以帮助其他法律专业人员。自然语言处理模型可以帮助速记员进行录音,而大型语言模型(LLM)可以帮助口译员进行翻译。生成人工智能可以为法律助理和法务助理起草文件、自动化客户沟通或组织案件文件。
将人工智能集成到法院功能中的益处
人工智能可以加速耗时、重复的任务,释放专业人员的时间,让他们可以处理更重要或更紧急的事务。这对于公设辩护人来说尤其有益,他们每年处理数百个案件和上诉。平均而言,他们在每个案件上花费13.5到286小时代表被告。
法律专业人员并不是唯一能从使用人工智能中受益的人。自我代表的当事人可以从人工智能聊天机器人那里获得法律指导。
人工智能可以使法律代表更容易被弱势和代表性不足的群体所接触。律师事务所可以使用它为低收入个人提供无偿法律服务。由于一个模型可以同时与成千上万甚至数百万人互动,因此它可以随着律师事务所的扩张而扩大规模。
与人工智能相关的法律和伦理问题
尽管人工智能可以对原告、律师、法官和口译员有益,但滥用可能会导致错误的法律判决。2024年,斯坦福大学的人工智能人性化研究所发现,目前最先进的LLM在回答法律查询时有69%至88%的“幻觉”率。
LLM通常会自信地输出有缺陷或虚构的信息。例如,他们可能会引用不存在的案例法或在进行法律研究时编造引语。尽管看起来很合理,但这些幻觉是不准确的。
也可能有故意的欺骗,考虑到生成人工智能的力量。原告可以使用它来伪造入室盗窃事件,生成一段显示被告偷窃其财物的家庭安全视频。这不是完全假设的例子,因为深度伪造已经被用于法庭。
在美国,80%的法庭案件在某种程度上依赖视频——包括身穿制服的警察的录像、手机录音或监控片段。正是因为如此,法律专业人员对深度伪造非常担心。2025年9月,一名法官驳回了一起民事案件,理由是视频录制的证人证词是深度伪造的。
不法分子可能会针对人工智能法律研究工具来破坏司法系统。研究表明,使用现有工具可以用0.01%的训练数据集样本来“污染”数据。虽然这看起来似乎微不足道,但污染率低至0.001%就可以永久改变输出。用户可以访问任何给定LLM中约30%的样本,使得腐败出乎意料地容易。
人工智能在法庭中的现实案例
人工智能可以对法律专业人员和自我代表的个人有益。然而,引起关注的大多数现实世界的例子并不是有利的。由于对人工智能在法庭中的法律和伦理影响的广泛担忧,人们更关注最坏的例子。
2025年5月,联邦法官迈克尔·威尔纳(Michael Wilner)想了解更多关于一些律师在提交中提出的论点。然而,他们引用的文章并不存在。被迫提供更多细节后,他们提交了一份新的简报,其中的不准确之处比第一份简报还多。
当威尔纳命令他们提供宣誓证词来解释错误时,他们承认自己使用了谷歌的Gemini和专门为法律设计的人工智能模型来撰写该文件。法官对律师事务所处以3.1万美元的罚款。尽管他们没有输入机密或非公开信息,但他们仍然浪费了法院的时间。
滥用人工智能的不仅是律师和原告。2025年,两名美国联邦地区法官撤回了他们的判决,因为发现他们的法庭工作人员在法律研究中使用了人工智能工具,导致错误百出,出现了“幻觉”案例引用。虽然他们将有缺陷的判决归咎于人工智能,但他们仍然有责任阅读他们引用的案例。
这些并不是一些小型、不知名的当地律师事务所的孤立案例——这些都是大型律师事务所和联邦法官犯下的令人尴尬、可以避免的错误。错误并不能完全归咎于智能算法。归根结底,人工智能只是一个工具。它的影响是积极还是消极的取决于使用者。
司法系统应该如何使用人工智能
公开可用的LLM是准确性和安全风险的潜在来源。域特定检索增强生成(RAG)模型被推广为解决人工智能“幻觉”的方案,因为它们在生成响应之前从外部可信知识库中检索相关数据。
然而,RAG模型并不是万能的解决方案,因为法律并非完全由无可争议的、可验证的事实组成。陪审团会被有魅力的律师说服。法官会撰写意见来解释他们的判决理由。法律在不同国家、州和地方之间存在差异。在这个灰色区域存在错误的空间。
法律往往是解释的产物——这就是为什么律师和法官存在的原因。人类不能指望人工智能在这个问题上是无懈可击的权威。虽然使用RAG是一个积极的步骤,但关键在于确保持续的人机协同监督。
人工智能将如何在未来的法庭中使用
法庭依赖相关文件和准确的引用。尽管人工智能被广泛采用来节省行政任务的时间和精力,但它仍然难以检索这些信息。
人工智能的“幻觉”并不仅限于美国法庭。在英国的一个案例中,原告寻求1.2亿美元的赔偿,针对卡塔尔国家银行。法院发现他们的案例法引用中有40%完全是虚构的。即使是真正的案例也充满了虚假的引语。最终,原告承认他们使用了人工智能工具进行法律研究。
即使他们的案件很扎实,人工智能的“幻觉”也损害了他们的信誉和声誉,可能影响了判决结果对他们不利。为了避免在未来犯类似的错误,法律必须跟上人工智能的步伐。
关于人工智能使用和监督的规则必须是详细和健全的。没有明确的规则,法庭工作人员可能仍会使用人工智能。正如法律专业人员所知,规则需要一个执行机制。纪律处分和处罚将有助于专业人员理解安全和道德使用人工智能的严重性。
人工智能在法庭中的银色亮点
这些高风险错误引发了更多关于研究诚信的问题。人工智能工具是否无意中揭示了律师没有核实法律研究,而法官正在处理未经核实的草稿?无论好坏,人工智能都正在成为司法系统的一部分。像其他工具一样,它的影响取决于使用方式。银色亮点是,即使是令人尴尬的错误也为专业人士提供了一个指南,告诉他们什么不应该做。












