“正义是盲目的。”
这是一个很好的概念,它代表了公平和客观的公平的法律制度。但不可否认的是,司法系统存在严重缺陷。
那么,人工智能能提供答案吗?是的,最终,但还没有。
我们可以看到法律体系中的问题。法庭上充斥着上诉,案件被从技术细节上抛出来,每一天,我们都能看到一名法官做出过分宽大或荒谬的判决的无耻故事。
句子不应该依赖于食物的摄入
有时,人们的生活似乎是根据法官的情绪决定的,而律师们在开玩笑说,正义取决于法官早餐吃什么。
2009年,一项针对以色列法官的著名研究显示,法官在休息后更容易宽大处理。事实上,它发现,在一天开始的时候,有65%的人可能会做出宽大的裁决,然后在午餐后再吃一顿,然后在午餐后再吃65%。
正义不应取决于你的听力发生的时间。所以,当然,这是一个紧迫性的问题与AI不会取代人类法官做出决定基于它是饿了吗?
人工智能法官还可以帮助清除那些威胁要淹没美国法律体系的案件积压。辩诉交易也变得越来越普遍。这可能意味着危险的罪犯会完全避免牢狱之灾,并因为法院的僵局而再次犯罪。
这是不可能运行法律体系的。
艾未未已经在协助保释听证会
美国国家经济研究局(National Bureau of Economic Research)的一项研究显示,即使是在最简单的决定是否给予保释的情况下,人工智能法官也可以帮助减少42%的监狱人口,并将犯罪减少24%。
在新泽西,这已经发生了。如果被告符合某些标准,他们就会被保释,而不支付任何保证金。这样就节省了一大笔钱,意味着被告可以继续工作。
印度有2700万的法庭案件,一个人工智能司法系统显然可以帮助清除那些简单的案件。
量刑和判决也应该是一个经验公式。所以,人工智能是很自然的。
不幸的是,并不是那么简单。
人工智能已经受到挑战
人工智能正在慢慢进入法律体系,威斯康辛州的惩教署已经转而采用风险评估工具Compas来帮助确定其刑期的长度。
它会询问犯人一系列问题,然后决定他们再次犯罪的风险,然后帮助法官对判决的严重程度做出明智的决定。
它的发现已经在法庭上受到了挑战,创造了另一个案例,而且很明显,主流媒体对一个法官盲目听从他不懂的技术的建议是有问题的。
科技行业正在要求更广泛的世界将他们的自由放在复杂的算法手中,这是它无法解释的。这总是一个问题。
UCL产生了固态但不完美的结果
与此同时,英国伦敦大学(University of Central London)去年公布了其AI法官的报告。在欧洲人权法院(European Court of human Rights)的一组法官调查的584起案件中,该算法得出的结论与人类法官得出的结论相同。
这令人印象深刻,但那21%呢?算法是正确的还是实际的裁判?
无论哪种方式,错误的边际都太高,现在无法为AI提供一个有效的案例。
在我们考虑将法律约束完全移交给机器学习之前,我们面临的问题比我们要处理的错误要大得多。
人工智能法官会更有偏见吗?
首先,人工智能只和我们输入的基本信息一样好,而且有大量的人工智能程序的例子被认为是有偏见的。
在短短24小时后,微软不得不关掉了Twitter聊天机器人Tay。其他推特用户则认为这是一种种族歧视和厌恶女性的观点,而该算法根本没有内部过滤器或世界观来知道这是错误的。
一个人意识到固有的偏见和我们自己思想的腐败。所以,我们可以对抗它。
一个算法根本就没有那种“直觉”。如果它走错了路,那么它就会在一个很奇怪的地方结束。
一个人工智能的法官显然可以受到像Twitter这样的外部影响的保护,但它只能根据过去的判断来学习,这可能会受到固有的偏见。
垃圾,垃圾
即使历史上的每一个法庭案例都是一个起点,我们仍然可能与离群值有问题。糟糕的人类判断可能会导致机器学习程序中的蝴蝶效应,在现实世界中,这一结果是荒谬的。
人工智能也没有情商。它从一个定义的点开始,这可能会导致像种族一样的政治热土豆的严重问题。
去年,美。艾未未评判一场国际选美比赛。该算法分析了6000人的照片,并选出44个获胜者。
只有一个人皮肤黝黑。
少数亚洲人做出了削减,但绝大多数的赢家是白人。推论很清楚:美。人工智能是种族主义者。
程序员们可以从最好的意图开始,甚至将系统设置为思维的多样性。但如果某些参数排除了有色人种,那么最终的结果就是一场公关灾难。在法庭上,后果可能更为严重。
针对人工智能的运动已经开始
公民自由组织曾警告过在法律体系中对人工智能进行歧视的内在危险。执法机构现在使用工具来预测未来的犯罪,但一些压力团体认为,该系统从一个有缺陷的、有偏见的基础开始。
“这是受污染的数据,产生了污染的结果,”媒体公正中心的执行主任Malkia Cyril说。
简单的事实是,机器学习,根据它的定义,推断出我们给它的信息得出新的结论。但在这个体系中,常识是一件很困难的事情。
当然,对于这个问题的解决方案和算法的调整最终应该消除系统中固有的偏见。
但这可能需要数年时间和大量的试验和错误。
人工智能是用来支持角色的
我们确实认为人工智能在法律体系中占有一席之地,但它在可预见的未来将是一个配角。
人工智能将被证明是无价的,随着时间的推移,系统将会变得更好。法官将能够越来越多地依靠机器学习提供正确的句子。
但是,就像控制一辆自动驾驶汽车的人工智能,我们需要一个完全知情的法官,他已经准备好了开车,谁有最终决定权。
第二组眼睛
人工智能根本无法考虑到大多数现代试验的局部和细节。但它应该给法官一套可靠的指导方针。
在我们看来,这将形成一个更安全的法律体系,人工智能让法官保持一致,而法官则密切关注电脑。他们会互相帮助。
因此,即使有了AI,正义也不会完全盲目。但它将有两组眼睛在路上。
这应该是一个巨大的进步。