一位纽约律师在引用一些不存在的案例后,被发现使用人工智能聊天机器人ChatGPT进行了法律研究,因此面临法官的责难。

在一起涉及一家航空公司被控因个人伤害而被起诉的案件中,原告律师提交了一份简要陈述,其中列出了几个案例作为法律先例。不幸的是,后来在一份宣誓书中承认,以下案例“被发现不存在”:

Varghese v. China Southern Airlines Co Ltd, 925 F.3d 1339 (11th Cir. 2019)
Shaboon v. Egyptair 2013 IL App (1st) 111279-U (Il App. Ct. 2013)
Petersen v. Iran Air 905 F. Supp 2d 121 (D.D.C. 2012)
Martinez v. Delta Airlines, Inc, 2019 WL 4639462 (Tex. App. Sept. 25, 2019)
Estate of Durden v. KLM Royal Dutch Airlines, 2017 WL 2418825 (Ga. Ct. App. June 5, 2017)
Miller v. United Airlines, Inc, 174 F.3d 366 (2d Cir. 1999)

据BBC报道,这份“研究”是由一位名为Steven A. Schwartz的律师编写的,他据称拥有超过30年的执业经验。Schwartz在宣誓书中表示,他以前没有使用ChatGPT进行法律研究,并且“不知道其内容可能是虚假的”。

宣誓书中的截图显示,这位律师询问聊天机器人“varghese是真实的案例吗?”,聊天机器人回答“是的”。当被要求提供来源时,它告诉律师可以在“Westlaw和LexisNexis等法律研究数据库”中找到该案例。当被问及“你提供的其他案例是假的吗?”时,它回答“不是”,并补充说这些案例可以在同一数据库中找到。

聊天机器人可能很有趣,也可能看起来非常先进,但它们仍然容易产生“幻觉”,听起来非常连贯却与现实世界毫不相关的答案。

如果没有进行严格的事实核查,使用聊天机器人来研究依赖于真实世界先例而非酷炫的自动补全的虚幻法律案件,实际上并不是一个应该使用的工具。

该律师写道,他“深感遗憾地利用生成式人工智能来补充本次执行的法律研究”,并誓言“在未经绝对验证其真实性的情况下,永远不会这样做”。

目前,Schwartz和Peter LoDuca律师将于6月8日面临听证会,就此事件进行听证。

本文译自 IFLScience,由 BALI 编辑发布。

[ 广告 ]
赞一个 (6)

PREV :
NEXT :