人工智能法官已经上线 但谁能保证它的公平公正?

人工智能已经开始在你决定未来的过程中发挥作用了无论你的Netflix浏览偏好是什么,你是否适合抵押贷款,还是你是否与你期望的boss相容。但是,至少就目前而言,我们为什么不能承认让人工智能在法庭上判定罪犯有罪或无罪是一个过分的举动?

令人担忧的是,这似乎已经发生了。最近美国首席大法官John Roberts最近出席一场活动时,有人问他是否曾预见到有朝一日“智能机器在人工智能的驱动下协助法庭裁决,甚至是更有争议的司法裁决”。他回应道:“这一天已经近在眼前,这也给司法部门的工作带来了巨大压力。”

Roberts可能指的是最近的Eric Loomis案件,至少有部分的判决建议是来源于一家私人公司的秘密专利软件,而Loomis最终被判了6年监禁。Loomis有犯罪史,他此次是因为在一辆偷来的汽车中袭警并逃离而被判处死刑,现在他声称,他的正当程序被侵犯了,因为他和他的律师都不能仔细审查或质疑生成这一建议的算法是否合理。

这份建议报告是由一款名为Compas的软件产品生产的,该产品由Nortpointe公司销售并出售给法庭。

该计划是人工智能研究领域的一种新趋势的代表:旨在帮助法官在法庭上做出“更好”的决策或者至少是以数据为中心的决策的新趋势。

尽管Loomis的报告的具体细节仍被密封,但这份文件可能会包含许多图表和图表,以量化Loomis的生活、行为和再犯的可能性。这可能还包括他的年龄、种族、性别认同、浏览习惯,以及……我也不太明白……他的头骨尺寸。关键是我们什么都不了解。

我们所知道的是,案件的检察官告诉法官,Loomis展示了“高风险的暴力,高风险的再犯真的是太高的风险了。”

在量刑方面,这些都是标准。法官同意了这份报告的结果并告知Loomis说他已经“通过公司的评估,确认是一个对社会来说高风险的人”。

威斯康星州最高法院裁定Loomis有罪,并补充说,该公司的报告给他们的决定带来了有价值的建议,但他也说,就算没有这个软件的帮助,Loomis也会得到同样的判决结果。

但我们怎么能知道这一点呢?当像Compas这样的全智能系统给法官提供建议时,会出现什么样的认知偏差?

现在我们要明确一点,那就是威斯康星州法院没有“非法”的行为这仅仅是一个不太好的主意而已。其他法院也可以自由地做同样的事情。

令人担忧的是,我们实际上并不知道人工智能和其他算法在量刑方面的使用程度。

我自己的研究表明,有几个司法管辖区都在类似于学校那样“试用”系统进行封闭实验,但没人能公布他们合作伙伴的详细情况,也不能公布它们会在何时何地使用。

我们也知道,有许多人工智能创业公司正在争相打造类似的系统。

然而,在法律中使用人工智能并不是从量刑开始,而是从调查开始。一种名为VALCRI的系统已经被开发出来,它仅在几秒钟内就能完成犯罪分析人员的劳动密集型工作:费力地浏览大量的数据,如文本、实验室报告和警方文件,记录并突出可能需要进一步调查的内容。

英国的西米德兰警方将在未来三年内使用匿名数据进行测试总计达650万次。比利时的警方正在进行类似的审判。然而,过去的人工智能和深度学习项目涉及大量数据,一直存在问题。

科技给法庭带来了许多好处,从影印机到DNA指纹和复杂的监视技术。但这并不意味着任何技术都是进步。

虽然在调查和量刑方面使用人工智能可能有助于节省时间和金钱,但它也引发了一些棘手的问题。ProPublica公司的一份报告明确指出,佛罗里达州布劳德县的黑人被告“更有可能比白人被告误判为再犯率偏高”。最近,Bath大学电脑科技专业的教授Joanna Bryson的工作表明,即使是算法最复杂的AI(人工智能系统)也会继承创造它们的人的那些关于种族和性别的偏见。