人工智能与法律:避免偏见算法的同时帮助律师

2020-02-21 11:49:15    来源:    作者:

人工智能(AI)有潜力帮助经济的各个领域。但是,在分析模糊且具有可能继续人为偏见的数据进行训练的行业中,这是一个挑战。几年前,我在一篇有关适用于刑事累犯的机器学习(ML)的文章中描述了带有偏见的问题。随着时间的推移,应对偏见的方式已经发生了变化,值得重新审视该行业。一种方法是着眼于法律专业中偏见较小的领域。

人工智能与法律:避免偏见算法的同时帮助律师

与许多刑法相比,税法具有更明确的规则。机器学习应用于人力资源系统(亚马逊取消了人力资源系统)已经有很多问题,而就业法则是州和国家制定明确规则的另一个领域。选择正确法律区域的关键。根据与Blue J Legal的人们的交谈,似乎重点是将重点放在具有严格规则而非标准的领域。前者提供了具有清晰特征工程的能力,而后者则没有训练准确模型的特异性。”

Blue J Legal来自创始人创办的多伦多大学课程,结合法律和计算机科学技能来尝试预测案件。像往常一样,挑战在于如何正确地分析问题所需的详细信息,以了解数据集的功能。如前所述,税收制度的选择是第一要务。税法有很多可以设计的规则。然后可以对数据进行适当的标记。在他们早期从事税收工作之后,他们开始工作。

该产品面向正在评估其案件的律师。目的是为每个案件的优势和劣势提供律师统计分析。

特征工程挑战

重要的是要注意,“就业”是一类法律问题。每个问题都必须分开查看,并且每个问题都有其自己的功能。例如,在当今的零工经济中,“工人是承包商还是雇员?” 是一个问题。Blue J Legal团队提到,他们针对每个已解决的问题发现了20至70个特征。

人工智能与法律:避免偏见算法的同时帮助律师

这清楚地表明,与ML系统的培训相比,特征工程是更大的挑战。这已经被很多人提到,但是仍然有很多人专注于推理引擎,因为它很酷。将数据转化为信息是ML挑战中更为关键的部分。

一旦对系统进行了培训,下一个挑战就是让律师提供正确的信息以分析其当前案件。他们必须输入(或他们的文员必须输入...)有关要分析的特征的每种情况的信息。

从技术上讲,他们的模型使用决策树。他们确实尝试了其他领域感兴趣的随机森林模型,但发现其准确性下降了。

Blue J Legal声称其早期版本可提供80-90%的准确性。

消除偏差:加号和减号

通过删除可能导致偏见的变量(例如男性对女性),他们可以训练更通用的系统。从纯粹的法律角度来看,这很好,但是与上述假释制度不同,这可能会导致律师对问题的分析产生问题。例如,如果少数派候选人在法律制度中受到的待遇较差,律师应该知道这一点。Blue J Legal团队表示,他们确实在加拿大和美国法律数据中都存在偏见,但是指出,他们要解决的两个领域并没有偏见会严重改变结果。

由于与上述相同的原因,他们也忽略了偏见​​的一个领域。我敢肯定,由于营销原因,它也被忽略了。随着他们转移到法规更少,标准更高的法律领域,我可以看到律师具有很强的价值,因为他们知道案件被分配给的法官是否根据案件或原告的特征有强烈的偏见。不过,如果他们分析了法官,我可能会看到其他偏见增加了,因为法官可能会对使用该系统的律师产生偏见。这是一个有趣的难题,将来必须解决。

人工智能与法律:避免偏见算法的同时帮助律师

律师应如何使用该系统

无论偏见如何,律师面前都面临着明显的道德挑战。例如,如果系统返回并告诉律师,类似案件中有70%是针对原告的,律师是否应该受理此案?法律是一个不稳定的行业,许多情况是相似的但不完全相同。律师如何确定特定客户是70%还是30%?系统如何提供信息以帮助律师决定以较低的概率受理案件或以较高的概率拒绝案件?与其他职业一样,希望律师会仔细评估结果。但是,就像在所有行业中一样,忙碌的人们会走捷径,而太多的人采用了GIGO的旧缩写,不再意味着“垃圾进来,垃圾出去”,而是“垃圾进去,福音出去”。

帮助的一种方法是提供法律备忘录。Blue J Legal系统提供了律师提供的答案列表以及每个答案的类似案例。不是律师,我不能说这做得如何,但这是系统的关键部分。就像太多的开发人员专注于引擎而不是功能工程一样,他们专注于引擎,同时最大限度地减少了解释引擎的需求。在应用了机器学习的所有领域,特别是在专业领域,黑匣子系统都不可信赖。必须支持分析,以便律师理解和评估通用决定如何影响其具体案件。

法律是测试AI与人之间融合的有趣途径。自动化不会很快取代律师,但是随着AI的发展,自动化将能够越来越多地为行业内的人们提供帮助,使他们对选择权有更多的了解,并更有效地利用他们的时间。值得关注的是两者之间的平衡。

郑重声明:本文版权归原作者所有,转载文章仅为传播更多信息之目的,如作者信息标记有误,请第一时间联系我们修改或删除,多谢。