人工智能时代,我们还需要人类法官吗?
2017-12-26 18:42 作者:ZIYAAD BHORAT 收藏(0) 阅读(1466) 评论(0)

在人工智能时代,我们还需要人类法官吗?

技术和法律正在趋同,但这对正义意味着什么呢?

IFTNews:第四次工业革命正在融合数字和物理世界的学科,法律技术是自动化技术进一步深入到以服务为导向的专业的最新例子。例如Casetext(一家为律师提供基于人工智能(AI)的研究的法律技术创业公司)最近获得了业内规模最大的一轮融资1200万美元,但研究仅仅是人工智能被用来协助法律界的一个领域。

其他包括合同审查和尽职调查、分析、预测、证据的发现和法律建议。技术和法律正在趋同,它们遇到的新问题是关于人工和人类行为的相对作用——以及从一种行为向另一种转变所涉及的伦理问题。虽然法律技术在很大程度上关注的是条文上,但它也挑战了我们对它的应用程序的思考。 特别是人工智能能否替代人类法官?

在进一步讨论之前,我们应该区分算法和人工智能。简单来说,算法是独立的指令,并且已经在司法决策中应用。例如,在新泽西州,公众安全评估算法通过使用数据来补充法官作出的保释决定,以确定向被告提供保释的风险。该计划的目的是协助法官更客观,减少与复杂的手工保释评估有关的成本,从而增加司法公正。

AI更难定义。 人们常常将机器学习与机器学习混为一谈,机器学习就是机器使用数据和过程的能力,分析模式,然后允许它分析新数据而不需要明确编程。 更深入的机器学习技术可以吸收大量的数据,进入神经网络模拟人类的决策。 AI包含了机器学习,但它有时也被用来描述一个远远超出我们自身的未来机器超级智能。

人工智能法官的想法引发了围绕偏见和自治的重要伦理问题。AI程序可能包含程序员和与之交互的人的偏见。例如,一个名为Tay的微软人工智能推特聊天机器人在与人类互动的24小时内,变成了种族主义者、性别歧视者和反犹太人者。但是,尽管这些程序可能会复制现有的人类偏见,但人工智能在算法上的显著特征是,它在学习过程中会表现出出乎意料和意料之外的行为。因此,消除偏见变得更加困难,尽管并非不可能。任何人工智能判断程序都需要解释和测试这些偏差。

给予人工智能对人类案件的决策权也引发了一个根本的自治问题。1976年,德裔美国人计算机科学家约瑟夫魏岑鲍姆Joseph Weizenbaum 提出反对将人置换为尊重与关怀的立场,并特别提到法官。他认为这样做会威胁人类的尊严,导致异化和货币贬值。

对理性的呼吁,反驳的论点是人类法官已经有偏见,而且人工智能可以用来改善我们对付他们的方式,减少我们的无知。然而,对人工智能法官的怀疑依然存在,并且已经足以引发欧盟颁布一个在2018年生效的“通用数据保护条例”。本条例包含“不受限于自动处理的决定的权利”。

无论如何,一位AI法官是否真的能做到人类法官所宣称的那样?如果人工智能能够正确识别司法决策的模式,它可能会更好地使用先例来决定或预测案例。例如,伦敦大学学院University College London的计算机科学家最近开发的一个人工智能判断,从欧洲人权法院ECHR的584个案件中得到了大量的数据。

AI法官能够分析现有判例法,并在79%的时间内与欧洲人权法院作出同样的判决,并且发现欧洲人权法院的判决实际上更多地依赖于酷刑,隐私,公正审判和有辱人格的待遇,而不是法律论据。对于法律现实主义者来说,这是一个有趣的案例,他们关注的是法官对他们所做的事情的实际处理。如果人工智能可以审查案件记录,并根据事实准确地判定案件,则可以为高等法院保留人类法官,因为需要审查更复杂的法律问题。

但人工智能甚至可以自己检查这些问题。 在将道德与法律分开的实证主义法官的案例中,法律解释可以根据任何给定的正式方法转化为一种算法任务。 例如,如果我们认为法律是社会建构的,并遵循英国法律理论家哈特的思想,那么就有可能以这种方式规定任何法律制度的“主要”和“次要”规则。

基本规则赋予了法律权利和义务——例如,告诉人们他们不能谋杀或偷窃。次要规则承认、改变或裁决这些基本规则。例如,深度机器学习AI可能能够处理如何识别案例中相关的类法律先例和宪法的来源。

或者,如果我们认为像已故的安东尼斯卡利亚(Antonin Scalia)这样的原创主义者是正确地,正确的法律解释是合理的人来说,生活在一个法律渊源的采用,会理解为其普通含义,然后人工智能可以使用自然语言处理程序这个方法。 自然语言处理允许AI了解和分析我们用来沟通的语言。 在像Siri,Alexa和Watson这样的语音识别软件的时代,自然语言处理只会越来越好。

人工智能或许能够复制这些形式主义法学家的解释方法。更重要的是,它可以帮助他们保持一致的判断。正如英国功利主义法律理论家边塞姆Jeremy Bentham在《道德与立法原则概论》中所写的那样,“原则上和实践中,在正确的轨道上,在错误的轨道上,人类最珍贵的品质是一致性。”有能力处理比人类多得多的数据和变量,AI法官可能能够超越人类的数据和变量。

在法官将道德引入法律的案件中,事情变得更加棘手——这是一项复杂的任务,因为道德价值和道德的起源是有争议的。例如,一些自然的律师认为道德来自于上帝、自然或其他超验来源。在一个变化的人类社会中,对这些神圣或神性的来源进行实际的、评判的理解,是一项极其复杂的任务。此外,人工智能“学习”的惊人和无意识的性质可能会导致一种明确的解释方式,一种人为的假象。

即便如此,人工智能法官们也不能解决传统的法律有效性问题,就像提出关于人类角色的新问题一样——如果我们相信法律中的伦理和道德是重要的——那么他们必然在人类判断的领域里说谎,或者应该撒谎。在这种情况下,人工智能可以在低级法院协助或取代人类,但人类法官应在任何法律制度的顶点处保留其作为最终裁决者的地位。实际上,如果我们把这个结论运用到美国法律理论家罗纳德德沃金的观点上,例如,人工智能可以帮助研究整个法律的广度和深度,但是人类最终会选择他们认为是一种更高级的解释。

在法律决策过程中,任何使用人工智能的算法都有可能通过司法体系向上发展。像国际人工智能和法律协会(IAAIL)这样的研究机构,已经开始在法律证据收集和决策方面探索人工智能。美国法官理查德波斯纳认为,应该限制人工智能和自动化的直接使用,以帮助法官发现自己的偏见和保持一致性。然而,在法庭上越来越多的自动化和人工智能决策将不可避免地影响到人类的司法决策。因此,随着时间的推移,对人工智能的依赖可能会模糊人类与人工智能之间的界限。

这些技术发展的速度使一些人呼吁在该领域全面暂停,以便政策和法院能够赶上。这或许是极端的,但显然,人工智能和法律的问题需要政策制定者、伦理学家和学者们更多的关注。

需要像IAAIL这样的组织和AI监管机构提供法学家,伦理学家,技术专家,政府和公众之间的接口,以便为法律制度中AI的适当使用和所有权制定规则和指导方针。

在21世纪,法律学者为解决一系列新问题而努力工作。 这些问题的核心是一个非常具有挑战性的问题:人工智能时代的人类意味着什么?


来源:https://www.opendemocracy.net/transformation

编译:FintechProbe