法院文件中的AI“幻觉”给律师带来麻烦 | 路透社
Sara Merken
一条信息写着“人工智能”,一台键盘和机器手在2025年1月27日拍摄的插图中可见。路透社/Dado Ruvic/插图/档案照片2月18日(路透社)- 美国人身伤害律师事务所摩根与摩根本月向其超过1000名律师发送了一封紧急电子邮件:人工智能可以编造虚假的案例法,在法庭文件中使用虚构的信息可能会导致你被解雇。怀俄明州的一名联邦法官刚刚威胁要对该事务所的两名律师进行制裁,因为他们在对沃尔玛的诉讼中包含了虚构的案例引用。其中一名律师上周在法庭文件中承认,他使用了一个“幻觉”案例的人工智能程序,并为他所称的无意错误道歉。人工智能在案件文件中生成法律虚构的倾向导致全国各地的法院在过去两年中对至少七起案件质疑或惩戒律师,路透社发现,这给诉讼人和法官带来了新的高科技麻烦。
沃尔玛案件之所以突出,是因为它涉及一家知名律师事务所和一个大型企业被告。但自从像ChatGPT这样的聊天机器人引入人工智能时代以来,类似的例子在各种诉讼中层出不穷,突显出一种新的诉讼风险。
摩根与摩根的发言人未回应评论请求。沃尔玛拒绝发表评论。法官尚未裁定是否对沃尔玛案件中的律师进行惩戒,该案件涉及一款 allegedly 有缺陷的悬浮滑板玩具。
生成性人工智能的进步正在帮助减少律师研究和起草法律文件所需的时间,这导致许多律师事务所与人工智能供应商签约或自行开发人工智能工具。63%的律师在去年接受路透社母公司汤森路透调查时表示,他们在工作中使用人工智能,12%表示他们定期使用。然而,法律专家表示,生成性人工智能被认为会自信地编造事实,使用它的律师必须谨慎。人工智能有时会产生虚假信息,在行业中被称为“幻觉”,因为这些模型生成的响应是基于从大型数据集中学习的统计模式,而不是通过验证这些数据集中的事实。
律师伦理规则要求律师审核并支持他们的法庭文件,否则将面临纪律处分。美国律师协会去年告诉其40万名成员,这些义务扩展到“即使是通过人工智能产生的无意错误陈述”。安德鲁·珀尔曼(Andrew Perlman),萨福克大学法学院院长和使用人工智能增强法律工作的倡导者表示,后果并没有因为法律研究工具的演变而改变。“当律师被发现使用ChatGPT或任何生成性人工智能工具创建引用而不进行核实时,那就是无能,简单明了,”珀尔曼说。
‘缺乏人工智能素养’
在2023年6月,曼哈顿的一位联邦法官对律师使用人工智能的早期法庭谴责之一罚款 两名纽约律师5000美元,因为他们在一起针对航空公司的个人伤害案件中引用了由AI虚构的案例。去年,一位不同的纽约联邦法官 考虑对涉及迈克尔·科恩的案件实施制裁,科恩是唐纳德·特朗普的前律师和顾问,他表示自己错误地给自己的律师提供了虚假的案例引用,而该律师在科恩的刑事税务和竞选融资案件中提交了这些引用。科恩使用了谷歌的AI聊天机器人Bard,他和他的律师没有受到制裁,但法官称这一事件“令人尴尬”。
去年11月,一位德克萨斯州的联邦法官 命令一名律师在一起错误解雇诉讼中引用不存在的案例和引文,支付2000美元的罚款,并参加关于法律领域生成性AI的课程。上个月,明尼苏达州的一位联邦法官表示,一位虚假信息专家在承认无意中引用了 虚假的、由AI生成的引用后,已经破坏了他在法庭上的信誉,这起案件涉及对副总统卡马拉·哈里斯的“深度伪造”恶搞。科罗拉多大学法学院的法律教授哈里·苏尔登研究AI与法律,他表示建议律师花时间学习“工具的优缺点”。他说,越来越多的例子表明该行业缺乏“AI素养”,但技术本身并不是问题。
“律师在AI出现之前就一直在提交文件时犯错误,”他说。“这并不新鲜。”
路透社每日简报提供您开始一天所需的所有新闻。请在 这里注册。
- 建议主题:
- 人工智能