英国新出台的法官使用AI聊天机器人指南一团糟

该指南试图区分大型语言模型(如 ChatGPT)的适当使用与不当使用。
Gavel on top of a computer for a judge
“它们(人工智能工具)最好被视为一种获得非决定性确认的方式,而不是提供即时准确的事实。” DepositPhotos

文本 由人工智能大型语言模型(LLM)生成 正在慢慢但稳步地渗透到我们的日常生活中,现在甚至包括法律裁决。本周,英国司法部发布了新的 指南,为法官提供了关于何时可以使用或不可以使用这些工具的更多明确指导。英国指南建议法官不要使用这些工具生成新的分析。然而,它允许总结文本。与此同时,美国越来越多的律师和被告发现自己因粗心大意地将人工智能引入法律实践而 被罚款和制裁

[ 相关: “一名电台主持人起诉 ChatGPT 开发商,称其内容诽谤” ]

司法部的人工智能指南是一系列建议和推荐,旨在帮助法官及其助理在技术日益普及的情况下理解人工智能及其局限性。这些指南不是可惩罚的法律规则,而是司法部为明确法官如何与这项技术互动所做努力的“第一步”。

总的来说,新指南表示,法官可能会发现像 OpenAI 的 ChatGPT 这样的人工智能工具在总结大量文本的研究方面很有用,或者用于起草电子邮件或备忘录等行政任务。同时,它警告法官不要使用这些工具进行依赖无法独立验证的新信息的法律研究。至于形成法律论点,指南警告说,公共人工智能聊天机器人根本“无法产生令人信服的分析或推理”。指南指出,法官可能会发现使用人工智能聊天机器人来查找他们已知准确的材料有一定好处,但他们应避免使用这些工具对他们无法自行验证的主题进行新研究。指南似乎将责任推给了用户,要求他们在大型语言模型的输出中区分事实与虚构。

指南中写道:“它们(人工智能工具)最好被视为一种获得非决定性确认的方式,而不是提供即时准确的事实。”

指南进一步警告法官,即使向人工智能工具输入了高度详细或严谨的提示,它们也可能吐出不准确、不完整或有偏见的信息。这些奇怪的人工智能虚构通常被称为“幻觉”。法官同样被建议不要将任何“私人或机密信息”输入到服务中,因为其中许多服务是“开放性质的”。

指南中写道:“您输入到公共人工智能聊天机器人中的任何信息都应被视为已向全世界公开。”

鉴于从提示中提取的信息是“非决定性”且可能不准确的,而输入到大型语言模型的信息不得包含可能对全面审查(例如,诉讼文本)至关重要的“私人”信息,因此在法律环境中它的实际用途并不十分清楚。

依赖上下文的数据也是司法部关注的领域。目前市场上最受欢迎的人工智能聊天机器人,如 OpenAI 的 ChatGPT 和 Google 的 Bard,都是在美国开发并使用了大量以美国为中心的数据。指南警告说,对美国训练数据的侧重可能会使人工智能模型对法律产生一种偏向美国法律背景和理论的“看法”。不过,指南最后指出,法官仍然要为以其名义生成的材料负责,即使这些材料是在人工智能工具的协助下生成的。

英格兰和威尔士民事司法部门负责人 Geoffrey Vos 据 报道,在指南发布前告诉路透社,他相信人工智能“为司法系统提供了巨大的机会”。他还表示,他相信法官能够辨别出使用人工智能起草的法律论点。

据路透社报道,Vos 说:“法官接受过判断真伪的训练,在现代人工智能世界中,他们必须像过去一样这样做。”

尽管存在准确性问题,一些法官已经发现人工智能“非常有用”

这项新指南是在英国上诉法院一位法官 Lord Justice Birss 使用 ChatGPT 总结了一个法律领域,然后利用该摘要的一部分撰写判决三个月后发布的。据《卫报》报道,当时这位法官称赞 ChatGPT “非常有用”。今年早些时候在一次新闻发布会上,Birss 表示,即使判决是在人工智能工具的帮助下产生的,他最终仍应对判决的内容负责。

据《法律公报》(The Law Gazette)报道,Birss 说:“我将对判决书中的内容承担全部个人责任,我不是试图将责任转嫁给他人。”“它只是做了一件我正要做的、并且我知道答案并且可以识别为可接受的事情。”

由于缺乏明确的规则来澄清何时以及如何将人工智能工具用于法律文件,一些律师和被告已经惹上了麻烦。今年早些时候,一对美国律师在提交了一份包含 ChatGPT 生成的虚假引文的法庭文件后,被罚款 5000 美元。最近,一名英国女子在税务案件中 据报道,在税务案件中试图依靠人工智能聊天机器人为自己辩护,但最终在上诉中败诉,因为发现她提交的案例法包含人工智能模型“幻觉”产生的虚构细节。今年早些时候,OpenAI 甚至成了 诽谤诉讼的目标,因为 ChatGPT 据称在一名他毫不知情的贪污案件中,冒充一名电台主持人为被告。

[ 相关: “欧盟强大的《人工智能法案》已出台。但为时已晚吗?” ] 

人工智能在法律程序中的模糊性可能会先变糟后变好。尽管拜登政府在其最近的人工智能行政命令中提出了规范人工智能在法律环境中部署的提案,但国会仍未通过任何全面的立法来制定明确的规则。在大西洋彼岸,欧盟最近就其 《人工智能法案》 达成一致,该法案对被视为“高风险”的各类人工智能工具和应用引入了更严格的安全和透明度规则。但违反这些规则的实际处罚最早可能在 2025 年才会出台。因此,目前,法官和律师在弄清楚人工智能使用的道德界限方面,很大程度上是在“摸着石头过河”。

 

更多优惠、评测和购买指南

 
Mack DeGeurin Avatar

Mack DeGeurin

撰稿人

Mack DeGeurin 是一名科技记者,多年来一直致力于研究科技与政治的交汇点。他的作品曾刊登于 Gizmodo、Insider、New York Magazine 和 Vice。


© .