(SeaPRwire) – 两名律师因提交人工智能生成的论点而受到警告
英格兰和威尔士高等法院的一名法官向法律专业人士发出正式警告,告诫律师,如果依赖人工智能生成包含虚构案例引用的法律论据,可能会面临刑事起诉。
高等法院 King’s Bench Division 的院长 Victoria Sharp 法官,连同 Jeremy Johnson 法官,谴责了涉及两起独立案件的律师,因为他们显然依赖人工智能工具起草书面论据,这些论据未经核实就提交给了法庭。
“如果人工智能被滥用,将对司法公正和公众对司法系统的信心产生严重影响,” 她在周五的裁决中表示。
这些案件的起因是下级法院发现疑似使用人工智能生成的论点和包含虚假信息的证人陈述。
在 Sharp 法官的裁决中,法院透露,在一桩涉及与 Qatar National Bank 的融资协议 alleged breach 的 9000 万英镑(1.2 亿美元)的诉讼中,一名律师引用了 18 个不存在的案例。
该案的客户 Hamad Al-Haroun 为其无意中使用公开可用的人工智能工具生成的虚假信息误导法庭的行为道歉,并承担了个人责任,免除了他的律师 Abid Hussain 的责任。
Sharp 说,“律师依赖客户的法律研究的准确性,而不是反过来,这是非同寻常的。”
在另一起案件中,大律师 Sarah Forey 在一起租户针对 London Borough of Haringey 的住房索赔案中引用了五个捏造的案例。 这位律师否认故意使用人工智能,但承认她可能在为案件进行在线研究时无意中这样做了。
法官斥责她说,“Forey 女士本可以通过搜索 National Archives 的案例法网站或前往她的律师协会的法律图书馆来核实她引用的案例。”
Sharp 警告说,将虚假材料作为真实材料提交可能构成藐视法庭罪,或者在最严重的情况下,构成妨碍司法公正罪——这是一种可判处终身监禁的刑事犯罪。
法官已将两起案件中的律师移交给各自的专业监管机构,但拒绝处以更严厉的处罚。
近年来,知名人士和科学家对人工智能可能造成的潜在危险提出了担忧。
研究人员警告说,人工智能正在迅速发展,据报道,一些模型变得有自我意识并重写自己的代码。Palisade Research 上个月报告说,在最近的测试中,一个强大的人工智能模型 “破坏了一个关闭机制,以防止自己被关闭,” 这引发了对现实世界中可能发生的人工智能叛乱的担忧。
本文由第三方内容提供商提供。SeaPRwire (https://www.seaprwire.com/)对此不作任何保证或陈述。
分类: 头条新闻,日常新闻
SeaPRwire为公司和机构提供全球新闻稿发布,覆盖超过6,500个媒体库、86,000名编辑和记者,以及350万以上终端桌面和手机App。SeaPRwire支持英、日、德、韩、法、俄、印尼、马来、越南、中文等多种语言新闻稿发布。
“`