【AI星球(微信ID:ai_xingqiu)】9月26日报道(编译:福尔摩望)
编者注:本文作者为Cy Leclercq,外媒科技专栏作家。
“正义是盲目的。”
这是一个极好的概念,代表了一种不偏不倚、公平的法律体系。但不可否认的是,司法制度存在着严重缺陷。我们可以看到法律制度存在的问题,法庭上充斥着上诉案件,每一天我们都能看到由于法官过于宽松或者过于严格导致的悲剧。
有时候,一个人的生活似乎根据法官的心情来决定,律师之间常会开玩笑说,正义取决于法官的早餐。
2009年,一项有关以色列法官的著名研究表明,法官在休息后更可能会从宽处理。事实上,在一天开始的时候,法官有65%的可能性会从宽处理,然后几率逐渐下降直至午餐,午餐后这一可能性又回升至65%。
公正不应取决于你的听证会时间。所以,用人工智能替代人类法官是意见紧迫的事情,因为AI不会根据饥饿程度而是根据事实做出裁决。
此外,人工智能法官还可以帮助清理积压的案件。这些案件足以淹没美国的法律体系,也导致辩诉交易越来越普遍。这意味着那些危险的罪犯可以因为法院僵局而避免入狱。
AI已经在协助保释听证会
国际经济研究局的一项研究显示,即使在决定是否保释的情况下,人工智能法官可以帮助减少42%的监狱人口,实际上也能将犯罪率降低24%。
在新泽西,这一切已经在运行中了。如果被告符合特定的标准,那么他们将在不支付保证金的情况下获得保释。这不仅可以给州政府节省一笔可观的金额,还可以让被告保住工作。
印度的司法系统中积压着2700万个法院案件,而人工智能司法系统显然有助于解决较简单的案件。量刑和判决是具有一定理性的,所以AI很适合这份工作。但是,事情并不简单。
AI正在逐步进入司法系统。威斯康辛劳教部门开始使用一种名为Compas的风险评估工具,来帮助确定刑期。它会询问罪犯一系列问题,然后考虑他们再犯的风险,并在量刑程度上向法官提供建议。
它的决策已经在法庭上受到质疑,并由此产生了另一案件。很明显,主流媒体并不认同法官盲目遵循由其并不理解的技术所提出的建议。
科技界希望世界能够将自由交给他们也无法解释的复杂算法手中,这一点让很多人无法接受。
UCL的人工智能法官
与此同时,英国伦敦大学于去年推出了其AI法官。在584起尚未提交欧洲人权法院法官小组的案件中,该算法79%的案件判决结果与人类法官一致。
这一数据令人印象深刻,但是剩下的21%呢?是算法还是人类法官公正?无论是哪一方,这样的错误率都太高了。
在我们考虑把法律权力完全交给机器学习之前,我们还有更大的问题需要考虑。首先,AI的判决取决于我们所给的信息,有些时候AI程序会变得非常偏见。
比如微软上线的Twitter聊天机器人Tay。由于Twitter用户不断将种族主义和厌恶女性的观点灌输给没有过滤系统的Tay,导致微软不得不在上线仅24小时后,就关掉了Tay。人类可以意识到内在的偏见和思想的堕落,所以我们可以反抗,但是算法是没有这样的能力的。
即使以历史上的任何一个案例为学习对象,我们也需要注意其中的异常案件。糟糕的人类判决可能会导致机器学习程序中的蝴蝶效应,从而让AI法官在现实世界中做出荒谬的裁决。
去年,Beauty.ai进行了一场国际选美大赛。该算法分析了6000人的照片,选出了44位获胜者。只有一位是黑皮肤。少数亚洲人出现了,但绝大多数获胜者都是白人。这样的结果只会让人们认为Beauty.ai是种族主义者。
也许程序员一开始是带着最好的意图开发的,甚至设置了多样性的系统。但是排除了皮肤颜色这一参数,最终导致了一场公关灾难。如果这样的事情发生在法庭上,后果会更加严重。
反对AI运动已经开始
有人警告,在法律系统中使用具有偏见的AI是危险的。执法机构现在开始使用工具来预测未来的犯罪,但是一些团队施压,认为这样的系统一开始就是具有缺陷和偏见的。
媒体正义中心的执行主任Malkia Cyril表示:“它的数据产生自受到污染的结果。”
其实道理很简单,所谓机器学习,就是通过我们所给的信息得出新的结论。但是常识是很难输入系统的。当然,解决这一问题也是有办法的,我们需要对算法进行不断的调整,最终消除系统中固有的偏见。但是这一过程可能需要耗费多年的时间。
我们的确认为AI应该在法律体系中占有一席之地,但是在可预见的未来里,它将会发挥辅助作用。随着时间的推移,AI会被证明是有价值的,系统也会变得越来越好。法官也能够越来越多的依赖机器学习来做出合适的判决。
但是,就像AI控制的自动驾驶汽车一样,我们需要仍然需要一个完备的法官来掌握最终的权力。AI根本无法区分出两种类似情况的细微差别,但是它可以给予法官一套坚实的指导细则来辅助处理案件。
在我们看来,这将会形成一个更加安全的法律体系。在这一系统中,AI会让法官保持清醒,法官也会密切关注计算机的判决。