导航菜单

智能系统:法律业的新工具 美国匹兹堡大学教授凯文·阿什利专访

SWOGMasDKbjHugm3AESg0LNQ9zzHecS18uSLOOef8LZsd1565151152556compressflag.png

匹兹堡大学的Kevin Ashley教授。

也就是说,与替换人类法官相比,我更喜欢使用人工智能来帮助法官做出决策。我的主张是,我们应该坚持认为法官是人类决策者,让人类在整个过程中参与法律决策,并在裁判过程中融入人类的情感和同情心。

法治周末特别写作李娟王春穗

不久前,匹兹堡大学法律和智能系统教授凯文阿什利应杭州师范大学的邀请来到中国。他曾担任Thomas J. Watson研究中心(以下简称Watson研究中心)的访问科学家,以及国际人工智能与法律协会(IAAIL)的主席,《人工智能与法》的编辑。同时,他是美国人工智能协会的成员。

7月1日,在浙江杭州,Kevin Ashley接受了《法治周末》的采访。

基于案例的推理与法律文本分析相结合具有广阔的前景

李娟和王春穗(以下简称李和王):人工智能研究分别在20世纪70年代和80年代遭遇两次寒冷的冬季。这会对您的研究产生什么影响?

Kevin Ashley(以下简称Kevin):我在博士期间进行的基于案例的推理研究。由国防高级研究计划局(DARPA)资助。因为这项研究提出了利弊之间的争论,所以它显然是对抗性的,而DARPA认为这可能与相关的对抗性应用或军事应用有关。

在参加匹兹堡大学之后,我获得了总统青年研究员奖,并获得了国家科学基金会的五年资助。之后,研究经费的申请变得困难。但我总是试图获得研究经费来继续我的研究。在人工智能时代,我们必须学会如何在学术界生存。

但是,我对沃森研究中心的访问确实与人工智能的冬天有关。

1988年,我在沃森研究中心担任访问科学家一年。当时的管理者对人工智能和法律及其发展潜力并不感兴趣。专家系统(模拟人类专家解决该领域问题的计算机程序系统)当时是主流。所以,大部分时间我都在访问小发?ǖ姆刹棵牛酝妓捣侵С秩斯ぶ悄芎头闪煊虻难芯俊?

那时,小发猫正在从理论研究转向应用研究,更加关注如何在一两年内推出优质智能产品。因此,我未能获得研究经费。回顾当时的研究,专家系统非常受欢迎。但问题是,只要私营部门或公司将这些理论研究产品作为产品推广,他们总会寄予很高的期望。然而,不完善的技术将降低行业的期望,并最终转移其利息和资本。

这种情况在我的职业生涯中不止一次发生过,我担心它会再次发生。例如,许多公司现在要求更多新的法律申请(例如,法律文本分析应用程序的期望值太高),因此我预计工业资金将被转移甚至再次枯竭。

Li,Wang:您在30多年前开发了HYPO的法律案例推理系统。该系统在人工智能和法律研究领域具有开创性和深远意义。后来,许多研究人员开发了基于HYPO的不同版本的基于案例的推理系统。但是,这些系统主要适用于“遵循先例”的普通法系统。根据案件在两大法系中的不同地位和作用,您认为大陆法系国家有必要开发和应用类似的智能系统吗?如果有必要,应该强调什么?

凯文:我认为基于案例的推理在两个法律体系中都很重要。

对于大陆法系国家,开发基于案例的推理系统有两个特殊的考虑因素。首先,“用例”的定义在大陆法系中很重要。大陆法系统中的法官也会搜查案件,但在查找案件后,他们不受先例约束或必须遵循先例作为普通法系统的法官。但是,法官有理由找回以前的案件。也就是说,为在特定情况下应用规则应用法律原则提供指导。据我所知,中国的指导性案例包含用于将具体事实情况和原则性法律规定联系起来的一般事实。这意味着有必要检索包含相同一般事实的先前案例。

第二,民事案件中事实的程度。大陆法系统中的案件通常不会报告普通法系统中详述的事实。但是,即使文书中提出的一般事实可能足以满足民法系统建立案例推理制度的需要。标准化案例后,可以通过基于案例的技术从案例库中检索类似案例。案例推理是我一直追求的目标。我希望看到中国开发一个真实的案例推理模型。

Li,Wang:您在2017年出版的书《人工智能与法律解析——数字时代法律实践的新工具》中提到,基于案例推理和法律文本分析的结合可以实现未来智能系统所需的预测和解释的双重目标。为什么要做出这个断言?

凯文:案例推理和法律文本分析的结合具有广阔的发展前景,我相信它会成功。在过去的30年里,我从未预料到人工智能和法律的发展会像今天一样健康和?】担绕涫窃诮扑隳P陀氚咐恼媸滴谋鞠嘟岷系那熬爸小U庵肿楹狭钊诵朔埽蚁M纯此欠褡钪沼行АU饩褪俏也辉敢馔诵莸脑颉?

有许多新的机器学习技术可用于文本分析,法律文本分析适用于许多其他场景(不仅仅是分析和预测)。但我认为法律文本分析和计算模型之间的联系尤为重要。否则,机器学习本身无法解释其预测。

虽然也可以学习分层神经网络,但它们以节点的形式分布在整个神经网络中并且难以检索。即使搜索成功,也难以以解释的形式解释它。有些人认为有可能通过焦点系统的文本部分来解释机器学习的结果,但相关的研究报告显示实验没有效果。因此,有必要开发可以解释机器学习程序的预测技术。这是计算模型的起源。

人工智能将为年轻律师带来机会

Li,Wang:有很多法学院学生担心他们毕业后将从事的初级律师将被人工智能所取代。随着人工智能技术的突破,新一代法学院学生更关心的是他们是应该继续传统的法学教育,还是应该寻求知识结构的变革。您对此有何看法和建议?

凯文:这也是美国法学院面临的一个问题。首先,法学院需要采取措施向学生介绍人工智能和法律及其问题的技术和法律文本分析技术。此外,学生不仅要学习如何应用人工智能和法律程序,还要尝试找出程序假设中的缺陷(毕竟,程序需要通过实践进行评估)。在此过程中,法学院学生可以了解课程的评估方式和标准。同时,学生需要了解评估过程中的实验类型,并积极参与实验活动。当然,使用应用程序和发现问题的学生并不意味着他们必须学习如何编程。应用程序本身可以成为学生自我训练的一种方式。也许现在的法学院学生需要学习和掌握比以往更多的统计知识,但统计学不等于计算机编程,更容易学习。

总之,法学院需要找到方法让学生参与人工智能和法律的实践活动,并激发他们的兴趣,这样学生就不会那么着急。但是,学生也应该意识到年轻律师比缺乏计算机背景和不懂技术的高级律师具有竞争优势。那就是:通过深入应用技术和理解技术和评估原则,年轻的律师将使自己不可或缺。可以看出,除了带来挑战外,人工智能还带来了更多的希望和机遇。

Li,Wang:人工智能和法律是法律和计算机,应用数学,心理学和其他多学科交叉的新主题。许多律师和学者认为,仅凭法律背景难以在研究或应用方面取得实质性突破。但是,学习一门新科目并不容易。您如何看待法律人员应该克服这一障碍?

凯文:首先,在这个新兴的跨学科领域,法人并不孤单。许多其他人文研究人员也在使用文本分析来提出有趣的研究假设。

例如,匹兹堡大学的历史和科学哲学教授正在分析查尔斯达尔文所阅读的书籍以及他发表的科学论文和出版物。教授试图通过文本分析找出文本之间的联系。

研究人员使用统计分析和机器学习方法。这种研究和分析正在许多其他研究领域进行,包括哲学。这至少会鼓励学者学习一些统计知识。实际上,机器学习是使用统计方法来检测先前不可测试的假设。因此,对于学者来说,用跨学科技能进行研究是一个真正的机会。您应该知道,使用机器学习来分析哲学,法律和文学领域的文本不是表演魔术,而只是统计。

机器人不应该取代法官律师

Li,Wang:你在研究中提到,陪审团或法庭辩护在法庭上的影响正在减弱,而且它被更多的算法,机器预测或统计所取代。众所周知,前者关注的是正义与同情,而后者则可以避免人类的偏见,但却没有人类的情感,有时甚至显得过于无动于衷。您对这一趋势有何看法?

凯文:我认为法官将永远“存在”。但是,还需要仔细选择用例。例如,一些用例涉及人工智能程序,它们提供信息以帮助法官优化决策;一些用例是关于人工智能的自主决策。我通常会避免选择后者,后者更倾向于使用人工智能来帮助法官做出决定而不是取代人类法官。我的主张是,法官应该坚持认为人类法官是人类决策者,让人类在整个过程中参与法律决策,并在裁判过程中融入人类的情感和同情心。

Li,Wang:你提倡人类评委参考机器决策。那么,当人的决策与机器决策不一致甚至不一致时,法官在多大程度上会受到机器决策的影响?

凯文:我希望法官至少可以重新审视他的决定并决定是否修改它。在这个过程中,法官必须首先对机器决策有一定的了解,机器决策将提供更多信息,帮助法官思考如何做出正确的决策。我不得不承认,人类法官完全依赖机器决策确实存在陷阱。在这方面,人类应该在设计时尽量减少这种可能性。这不仅仅是基于用例开发算法的问题,还包括应该使用人工智能的上下文,以及在哪个决策阶段将信息提供给法官。

Li,Wang:你认为机器人的判断不会成为现实,而且它应该或不应该成为现实

凯文:当然,这在政治现实方面是可能的。据我所知,机器人评委出现在一些地区。但考虑到目前的技术缺陷,我认为这是一个非常糟糕的现象。

在我的个人研究工作中,我一直避免接触这种“人为替代”的人工智能研究。当许多人谈论机器人而不是律师或法官时,我所想的是人工智能(例如机器学习的法律文本分析技术)无法真正被阅读或理解。文本阅读仍然是所有法律实践的重要组成部分。假设该党雇用了一名“文盲”律师,他或她将无法获得良好的代理服务;如果主审法官是一个“无法理解”的人,他或她就不能指望太多正义。

到目前为止,阅读仍然超出了人工智能的范围。此外,人工智能在该计划中可能非常有限。以法律文本中的一些语义信息为例,人工智能不能从文本中或间接地提取隐含信息。但实际上,大量法律不仅包含隐含信息,还包含间接推理。显然,目前还没有能够真正完成这项任务的智能技术。这是人工智能的根本缺陷。因此,我的结论是机器人不应被视为法官或律师的替代品。

不可否认,一些行政决策非常肤浅和偏袒,因此可以在一定程度上实现自动化(例如智能停车系统)。但是,在法官和律师作出的一般性决定中,阅读和理解仍然至关重要。

李,王:你强调技术缺陷造成的限制。如果通用人工智能(AGI)成为现实,机器人评委能否实现它?

凯文:一切皆有可能。但是,我认为近几十年来人工智能无法真正像人类一样被阅读。许多人也问我什么时候可以实现一般人工智能。我不是自然语言方面的专家,无法预测其实施时间。

一个基本的事实是,阅读涉及对人类读者的背景知识和常识知识的理解。同样,律师根据他们对不同行业及其运作方式的理解来阅读。当他们阅读文本时,他们总是整合所有信息。然而,迄今为止,人工智能不知道如何表达常识知识或背景知识,也不知道如何将这些知识整合到阅读过程中。显然,这个有趣的研究领域应该是未来研究的重点。作为一名研究人员,我们还有很长的路要走。

(作者是中南大学法学院讲师,广东开放大学讲师)

SWOGMasDKbjHugm3AESg0LNQ9zzHecS18uSLOOef8LZsd1565151152556compressflag.png

匹兹堡大学的Kevin Ashley教授。

也就是说,与替换人类法官相比,我更喜欢使用人工智能来帮助法官做出决策。我的主张是,我们应该坚持认为法官是人类决策者,让人类在整个过程中参与法律决策,并在裁判过程中融入人类的情感和同情心。

法治周末特别写作李娟王春穗

不久前,匹兹堡大学法律和智能系统教授凯文阿什利应杭州师范大学的邀请来到中国。他曾担任Thomas J. Watson研究中心(以下简称Watson研究中心)的访问科学家,以及国际人工智能与法律协会(IAAIL)的主席,《人工智能与法》的编辑。同时,他是美国人工智能协会的成员。

7月1日,在浙江杭州,Kevin Ashley接受了《法治周末》的采访。

基于案例的推理与法律文本分析相结合具有广阔的前景

李娟和王春穗(以下简称李和王):人工智能研究分别在20世纪70年代和80年代遭遇两次寒冷的冬季。这会对您的研究产生什么影响?

Kevin Ashley(以下简称Kevin):我在博士期间进行的基于案例的推理研究。由国防高级研究计划局(DARPA)资助。因为这项研究提出了利弊之间的争论,所以它显然是对抗性的,而DARPA认为这可能与相关的对抗性应用或军事应用有关。

在参加匹兹堡大学之后,我获得了总统青年研究员奖,并获得了国家科学基金会的五年资助。之后,研究经费的申请变得困难。但我总是试图获得研究经费来继续我的研究。在人工智能时代,我们必须学会如何在学术界生存。

但是,我对沃森研究中心的访问确实与人工智能的冬天有关。

1988年,我在沃森研究中心担任访问科学家一年。当时的管理者对人工智能和法律及其发展潜力并不感兴趣。专家系统(模拟人类专家解决该领域问题的计算机程序系统)当时是主流。所以,大部分时间我都在访问小发猫的法律部门,试图说服他们支持人工智能和法律领域的研究。

那时,小发猫正在从理论研究转向应用研究,更加关注如何在一两年内推出优质智能产品。因此,我未能获得研究经费。回顾当时的研究,专家系统非常受欢迎。但问题是,只要私营部门或公司将这些理论研究产品作为产品推广,他们总会寄予很高的期望。然而,不完善的技术将降低行业的期望,并最终转移其利息和资本。

这种情况在我的职业生涯中不止一次发生过,我担心它会再次发生。例如,许多公司现在要求更多新的法律申请(例如,法律文本分析应用程序的期望值太高),因此我预计工业资金将被转移甚至再次枯竭。

Li,Wang:您在30多年前开发了HYPO的法律案例推理系统。该系统在人工智能和法律研究领域具有开创性和深远意义。后来,许多研究人员开发了基于HYPO的不同版本的基于案例的推理系统。但是,这些系统主要适用于“遵循先例”的普通法系统。根据案件在两大法系中的不同地位和作用,您认为大陆法系国家有必要开发和应用类似的智能系统吗?如果有必要,应该强调什么?

凯文:我认为基于案例的推理在两个法律体系中都很重要。

对于大陆法系国家,开发基于案例的推理系统有两个特殊的考虑因素。首先,“用例”的定义在大陆法系中很重要。大陆法系统中的法官也会搜查案件,但在查找案件后,他们不受先例约束或必须遵循先例作为普通法系统的法官。但是,法官有理由找回以前的案件。也就是说,为在特定情况下应用规则应用法律原则提供指导。据我所知,中国的指导性案例包含用于将具体事实情况和原则性法律规定联系起来的一般事实。这意味着有必要检索包含相同一般事实的先前案例。

第二,民事案件中事实的程度。大陆法系统中的案件通常不会报告普通法系统中详述的事实。但是,即使文书中提出的一般事实可能足以满足民法系统建立案例推理制度的需要。标准化案例后,可以通过基于案例的技术从案例库中检索类似案例。案例推理是我一直追求的目标。我希望看到中国开发一个真实的案例推理模型。

Li,Wang:您在2017年出版的书《人工智能与法律解析——数字时代法律实践的新工具》中提到,基于案例推理和法律文本分析的结合可以实现未来智能系统所需的预测和解释的双重目标。为什么要做出这个断言?

凯文:案例推理和法律文本分析的结合具有广阔的发展前景,我相信它会成功。在过去的30年里,我从未预料到人工智能和法律的发展会像今天一样健康和健康,尤其是在将计算模型与案例的真实文本相结合的前景中。这种组合令人兴奋,我希望看看它是否最终有效。这就是我不愿意退休的原因。

有许多新的机器学习技术可用于文本分析,法律文本分析适用于许多其他场景(不仅仅是分析和预测)。但我认为法律文本分析和计算模型之间的联系尤为重要。否则,机器学习本身无法解释其预测。

虽然也可以学习分层神经网络,但它们以节点的形式分布在整个神经网络中并且难以检索。即使搜索成功,也难以以解释的形式解释它。有些人认为有可能通过焦点系统的文本部分来解释机器学习的结果,但相关的研究报告显示实验没有效果。因此,有必要开发可以解释机器学习程序的预测技术。这是计算模型的起源。

人工智能将为年轻律师带来机会

Li,Wang:有很多法学院学生担心他们毕业后将从事的初级律师将被人工智能所取代。随着人工智能技术的突破,新一代法学院学生更关心的是他们是应该继续传统的法学教育,还是应该寻求知识结构的变革。您对此有何看法和建议?

凯文:这也是美国法学院面临的一个问题。首先,法学院需要采取措施向学生介绍人工智能和法律及其问题的技术和法律文本分析技术。此外,学生不仅要学习如何应用人工智能和法律程序,还要尝试找出程序假设中的缺陷(毕竟,程序需要通过实践进行评估)。在此过程中,法学院学生可以了解课程的评估方式和标准。同时,学生需要了解评估过程中的实验类型,并积极参与实验活动。当然,使用应用程序和发现问题的学生并不意味着他们必须学习如何编程。应用程序本身可以成为学生自我训练的一种方式。也许现在的法学院学生需要学习和掌握比以往更多的统计知识,但统计学不等于计算机编程,更容易学习。

总之,法学院需要找到方法让学生参与人工智能和法律的实践活动,并激发他们的兴趣,这样学生就不会那么着急。但是,学生也应该意识到年轻律师比缺乏计算机背景和不懂技术的高级律师具有竞争优势。那就是:通过深入应用技术和理解技术和评估原则,年轻的律师将使自己不可或缺。可以看出,除了带来挑战外,人工智能还带来了更多的希望和机遇。

Li,Wang:人工智能和法律是法律和计算机,应用数学,心理学和其他多学科交叉的新主题。许多律师和学者认为,仅凭法律背景难以在研究或应用方面取得实质性突破。但是,学习一门新科目并不容易。您如何看待法律人员应该克服这一障碍?

凯文:首先,在这个新兴的跨学科领域,法人并不孤单。许多其他人文研究人员也在使用文本分析来提出有趣的研究假设。

例如,匹兹堡大学的历史和科学哲学教授正在分析查尔斯达尔文所阅读的书籍以及他发表的科学论文和出版物。教授试图通过文本分析找出文本之间的联系。

研究人员使用统计分析和机器学习方法。这种研究和分析正在许多其他研究领域进行,包括哲学。这至少会鼓励学者学习一些统计知识。实际上,机器学习是使用统计方法来检测先前不可测试的假设。因此,对于学者来说,用跨学科技能进行研究是一个真正的机会。您应该知道,使用机器学习来分析哲学,法律和文学领域的文本不是表演魔术,而只是统计。

机器人不应该取代法官律师

Li,Wang:你在研究中提到,陪审团或法庭辩护在法庭上的影响正在减弱,而且它被更多的算法,机器预测或统计所取代。众所周知,前者关注的是正义与同情,而后者则可以避免人类的偏见,但却没有人类的情感,有时甚至显得过于无动于衷。您对这一趋势有何看法?

凯文:我认为法官将永远“存在”。但是,还需要仔细选择用例。例如,一些用例涉及人工智能程序,它们提供信息以帮助法官优化决策;一些用例是关于人工智能的自主决策。我通常会避免选择后者,后者更倾向于使用人工智能来帮助法官做出决定而不是取代人类法官。我的主张是,法官应该坚持认为人类法官是人类决策者,让人类在整个过程中参与法律决策,并在裁判过程中融入人类的情感和同情心。

Li,Wang:你提倡人类评委参考机器决策。那么,当人的决策与机器决策不一致甚至不一致时,法官在多大程度上会受到机器决策的影响?

凯文:我希望法官至少可以重新审视他的决定并决定是否修改它。在这个过程中,法官必须首先对机器决策有一定的了解,机器决策将提供更多信息,帮助法官思考如何做出正确的决策。我不得不承认,人类法官完全依赖机器决策确实存在陷阱。在这方面,人类应该在设计时尽量减少这种可能性。这不仅仅是基于用例开发算法的问题,还包括应该使用人工智能的上下文,以及在哪个决策阶段将信息提供给法官。

Li,Wang:你认为机器人的判断不会成为现实,而且它应该或不应该成为现实

凯文:当然,这在政治现实方面是可能的。据我所知,机器人评委出现在一些地区。但考虑到目前的技术缺陷,我认为这是一个非常糟糕的现象。

在我的个人研究工作中,我一直避免接触这种“人为替代”的人工智能研究。当许多人谈论机器人而不是律师或法官时,我所想的是人工智能(例如机器学习的法律文本分析技术)无法真正被阅读或理解。文本阅读仍然是所有法律实践的重要组成部分。假设该党雇用了一名“文盲”律师,他或她将无法获得良好的代理服务;如果主审法官是一个“无法理解”的人,他或她就不能指望太多正义。

到目前为止,阅读仍然超出了人工智能的范围。此外,人工智能在该计划中可能非常有限。以法律文本中的一些语义信息为例,人工智能不能从文本中或间接地提取隐含信息。但实际上,大量法律不仅包含隐含信息,还包含间接推理。显然,目前还没有能够真正完成这项任务的智能技术。这是人工智能的根本缺陷。因此,我的结论是机器人不应被视为法官或律师的替代品。

不可否认,一些行政决策非常肤浅和偏袒,因此可以在一定程度上实现自动化(例如智能停车系统)。但是,在法官和律师作出的一般性决定中,阅读和理解仍然至关重要。

李,王:你强调技术缺陷造成的限制。如果通用人工智能(AGI)成为现实,机器人评委能否实现它?

凯文:一切皆有可能。但是,我认为近几十年来人工智能无法真正像人类一样被阅读。许多人也问我什么时候可以实现一般人工智能。我不是自然语言方面的专家,无法预测其实施时间。

一个基本的事实是,阅读涉及对人类读者的背景知识和常识知识的理解。同样,律师根据他们对不同行业及其运作方式的理解来阅读。当他们阅读文本时,他们总是整合所有信息。然而,迄今为止,人工智能不知道如何表达常识知识或背景知识,也不知道如何将这些知识整合到阅读过程中。显然,这个有趣的研究领域应该是未来研究的重点。作为一名研究人员,我们还有很长的路要走。

(作者是中南大学法学院讲师,广东开放大学讲师)