人道主义组织使用的AI可能会加深新殖民主义的倾向

2020-02-24 15:42:37    来源:    作者:

人工智能(AI)正在经历大规模扩张的时期。这不是因为计算机已经实现了类似人的意识,而是由于机器学习的进步,在机器学习中,计算机从庞大的数据库中学习了如何对新数据进行分类。最前沿的是已学会识别人脸或玩Go 的神经网络。

人道主义组织使用的AI可能会加深新殖民主义的倾向

在识别图案的数据也可以用来作为预测工具。人工智能被应用于超声心动图来预测心脏病,应用于工作场所数据以预测员工是否要离职,并应用于社交媒体来检测初期抑郁或自杀倾向的迹象。政府或企业都在关注拥有丰富数据的生活的各个方面(这几乎意味着生活的各个方面),以应用AI。

当前似乎与人工智能相距甚远的一项活动是人道主义。为因战争,饥荒或其他灾难而处于危机中的同胞提供地面援助的组织。但是人道主义组织也将采用人工智能。为什么?因为它似乎能够回答人道主义问题的核心问题,例如我们应该拯救谁以及如何大规模发挥作用等问题。大赦国际还与现有的人道主义思考和行为方式,特别是中立性和普遍性原则产生了强烈共鸣。人道主义主义(据信)没有立场,在实施过程中没有偏见,可以提供援助,而不论当地情况如何。

人道主义组织使用的AI可能会加深新殖民主义的倾向

该方法机器学习消耗大数据和预测产生一定表明它既能把握人道主义挑战的艰巨性,并提供一个数据驱动的响应。但是,机器学习操作的性质意味着它们实际上将加深一些人道主义问题,并引入新的问题。

数学

如果我们要绕过AI一词的错误信息和谜团,则探索这些问题需要绕开机器学习的具体操作。因为人工智能中没有智能。即使它的技术名称是机器学习,它也不会真正学习。

AI只是数学上的最小化。还记得在学校如何将一条直线拟合到一组点,并选择一条使总体差异最小化的线吗?机器学习对复杂模式也是如此,通过最小化成本函数使输入特征适合已知结果。结果成为可以应用于新数据以预测结果的模型。

任何和所有数据都可以通过机器学习算法推送。任何可以减少数量并带有结果标记的内容都可以用来创建模型。这些方程式不知道或不在乎这些数字是否代表亚马逊的销售或地震受害者。

机器学习的这种平庸性也是它的力量。这是重要的问题的广义数值压缩–计算中不包含任何理解;模式表示相关性,而非因果关系。唯一的情报与军事情报具有相同的含义。即定位。这些操作是使成本函数最小化以优化结果的操作。

机器学习产生的模型可能很难逆转为人类推理。为什么将这个人选为假释风险大的人?该模式代表什么?我们不一定要说。因此,方法的核心是不透明的。它不会增强人的代理能力,但会扭曲它。

强大的逻辑

机器学习不仅在没有给出理由的情况下做出决策,它改变了我们对理性的理解。也就是说,它改变了什么是可知的和什么被理解为真实的。

例如,在美国的某些辖区,如果算法得出的预测是被捕者很可能会再次犯罪,那么该人将被拒绝保释。数据中的模式查找成为引发重大后果的计算权威。

因此,机器学习不仅是一种方法,而且是一种机器哲学,在这种哲学中,抽象计算被理解为访问一个被视为优于常识感知的真理。这样一来,数据科学的计算最终可能不只是证言。

人道主义组织使用的AI可能会加深新殖民主义的倾向

当然,人道主义领域对数据传播的危险并不幼稚。众所周知,机器学习可以传播歧视,因为机器学习是从社交数据中学习的,而社交数据本身经常有偏差。因此,人道主义机构自然会比大多数机构更加谨慎,以确保采取一​​切可能的措施来防止训练数据有偏见。

但是,问题超出了明确的偏见。机器学习的更深层影响是产生类别,通过这些类别我们可以思考自己和他人。机器学习也向抢占转变:基于关联而不是因果关系而取消期货。这与Twitter确定趋势主题,以算法在算法上划定应得和不应得的方式分配和保留资源的方式一样,构成风险。

我们也许应该特别担心这些趋势,因为尽管有其最好的意图,但人道主义的实践常常表现出新殖民主义的趋势。通过宣称中立性和普遍性,算法断言了在其他地方生成的抽象知识的优越性。通过嵌入强大的逻辑来确定外围人员的命运,人道主义AI成为代替直接控制的新殖民主义机制。

从目前的情况来看,机器学习和所谓的AI不会成为人道主义的救赎。相反,它将通过算法失真加深人道主义机构本已很深的新殖民主义和新自由主义动力。

但是没有设备是一个封闭的系统。机器学习的影响是偶然的,可以改变。对于人道主义AI而言,这与通常对于AI一样重要-因为,如果不通过人民议会等方法来调动替代技术,则下一代人道主义丑闻将由AI推动。

郑重声明:本文版权归原作者所有,转载文章仅为传播更多信息之目的,如作者信息标记有误,请第一时间联系我们修改或删除,多谢。