英国和威尔士法官批准有限和谨慎使用AI:“无法抵挡技术潮流”

(SeaPRwire) –   英格兰和威尔士的法官将获准“小心使用”人工智能(AI),以帮助产出裁决,但专家对法官或更广泛的法律专业人士应如何更广泛地使用这项技术持不同意见。

“我会说,AI可能适合采用更广泛的网络来收集可能的信息,”康奈尔大学法学院教授威廉·A·雅各布森告诉Digital。雅各布森是平等保护项目的创始人。

“这可能会影响你的决定,但我不认为它现在处于一个阶段——我也不知道它是否永远能达到——它实际上可以进行分类……并作出你需要作出的决定和判断,无论你是法官还是律师。”

英格兰和威尔士法院,即各种法官、裁判官、法庭成员和验尸官的机构,决定法官可以使用AI来写意见,但不允许用于研究或法律分析,因为AI可能会制造信息并提供误导性、不准确和偏见的信息。

对法律领域AI使用的谨慎部分源于几起高调的失误案例,这些案例是由于律师尝试AI技术而产生的法庭文件,其中包含了虚构案例的参考。

代表一名受伤客户起诉哥伦比亚航空阿维安卡的律师史蒂文·A·施瓦茨曾使用AI来搜索法律先例,他认为自己无法找到案例仅仅是因为无法像ChatGPT AI平台那样访问它们。施瓦茨承认他完全不知道那些案例是虚构的。

更近期,前总统特朗普曾经的律师迈克尔·科恩提交了包含谷歌AI平台Bard生成的虚构法律案例的文件。科恩认为Bard只是一个“超级搜索引擎”。

尽管这些严重的失误,AI专家仍然相信只要人类元素始终保持框架内并对过程保持充分控制,就可以安全使用这些平台。

“在这一代技术的生命周期内,这个问题将一直存在,”菲尔·西格尔告诉Digital。西格尔是高级准备和威胁反应模拟中心的创始人。

“考虑到[政府]设定的规则,我会这样描述法官将获得的东西……你应该把它看作是一个没有判断力的超级聪明的青少年。你可以让他为你写起诉书,但如果你不检查工作并确保所有内容都是准确的——引用的案例都是真实的等等——那么你将继续得到无意义的内容,这将是一个问题。”

西格尔说,将责任放在法官身上将帮助他们在使用AI的过程中采取额外的步骤,将这个过程比作法律学生或新毕业的法学院毕业生为法官写意见的现有系统。

“如果你是个法官,有个没有经验的法律助手为你写工作,而你不检查他们的工作,我认为你会得到应得的。”

迈克尔·弗兰克是瓦德瓦尼AI和先进技术中心的高级研究员。他表示,技术已经减少了AI模型中的“幻觉”,尽管他承认,考虑到法律决定的影响和重要性,公众可能不会满意“几乎为零”的幻觉率。

弗兰克告诉Digital,引用GPT-3中的3%“真的很好”,但“对于如此敏感的事项如判决和写法律意见来说,这仍然太高,本质上这总会是一个问题”。

“这些模型的工作原理是预测序列中的下一个单词,它们在这方面已经非常出色。但我们无法准确指出这些模型为什么会得出它们得出的结论。从技术上讲,今天的技术无法实现。”

但弗兰克表示,技术已经足够改进,给英国司法部门提供一些使用的信心。此外,正如在其他行业中,AI将帮助减轻劳动密集型任务的负担,并帮助解决法律体系的“痛点”。

“必须认识到,目标不应该是完全消除人类参与。它应该了解法官的作用是什么,他们目前工作中的痛点是什么,如何部署这些模型来解决这些痛点。”

雅各布森指出,怀疑可能部分源于代际差异,指出更年轻的一代对技术和AI具有更高的采用率和熟悉度,特别是随着时间的推移,技术的使用将增加,即使它在一定程度上仍然不准确。

“你无法阻止技术的潮流,任何试图忽略这一点的人,我认为他们将以不利或在法庭、在法律事务所或在公司运营方面不利。它已经来了。我们必须处理它。”

Digital的布里·斯蒂姆森和

本文由第三方内容提供商提供。SeaPRwire (https://www.seaprwire.com/)对此不作任何保证或陈述。

分类: 头条新闻,日常新闻

SeaPRwire为公司和机构提供全球新闻稿发布,覆盖超过6,500个媒体库、86,000名编辑和记者,以及350万以上终端桌面和手机App。SeaPRwire支持英、日、德、韩、法、俄、印尼、马来、越南、中文等多种语言新闻稿发布。