律师使用ChatGPT提起诉讼,但被欺骗引用不存在的案件。

干货分享9个月前发布 Youzhizhan
3,318 0


最近,一名律师在法庭案件中依靠聊天机器人ChatGPT进行法律研究,导致提交不正确的信息。这一事件揭示了人工智能在法律领域的潜在风险,包括错误信息。

律师使用ChatGPT提起诉讼,但被欺骗引用不存在的案件。

5月28日,据《纽约时报》报道,一名律师最近在法庭案件中依靠聊天机器人ChatGPT进行法律研究,导致提交的信息不正确。这一事件揭示了人工智能在法律领域的潜在风险,包括错误信息。

律师使用ChatGPT提起诉讼,但被欺骗引用不存在的案件。

该案件涉及一名男子起诉一家航空公司的人身伤害。 原告的法律团队提交了一份简短的诉讼文件,引用了几个以前的法庭案件来支持他们的论点,试图为他们的索赔建立一个法律先例。然而,该航空公司的律师发现一些引用的案件不存在,并立即通知主审法官。

法官凯文卡斯特尔对这种情况表示惊讶,称其为”前所未有的”,并命令原告的法律团队提供解释。

原告的律师之一Steven Schwarz承认,他使用ChatGPT搜索类似的法律先例。 在一份书面声明中,施瓦茨表示深感遗憾,他说:”我以前从未使用人工智能搜索法律文件,也不知道其内容可能是虚假的。”

提交给法院的文件附有Schwarz和ChatGPT之间对话的屏幕截图,其中Schwarz询问了一个具体案例:Varghese诉中国南方航空有限公司是否真实。ChatGPT回答说这是真的,并表示案件可以在LexisNexis和Westlaw等法律参考数据库中找到。然而,后续调查显示该案件不存在,进一步调查显示ChatGPT捏造了6个不存在的案件。

鉴于这一事件,涉案的两名律师,来自律师事务所Levidow的Peter Loduka和Steven Schwarz,Levidow&Oberman,将于6月8日出席纪律听证会,解释他们的actions.IT House指出,这一事件引发了法律界关于在法律研究中适当使用人工智能工具的讨论,以及需要制定全面的指导方针以防止类似情况的发生。

[ad]
© 版权声明

相关文章

暂无评论

您必须登录才能参与评论!
立即登录
暂无评论...