人工智能系统中的偏差可能导致意想不到的后果

2020-03-17 14:18:40    来源:    作者:

Alexa。Siri。Cortana。这些虚拟数字助理已成为我们日常生活的一部分,除了功能上的相似之处外,它们还有一个共同的重要特征:它们都被编码为女性。

人工智能系统中的偏差可能导致意想不到的后果

如果您从未考虑过为什么所有这些AI帮助者都是女性,那么您并不孤单。LivePerson是一个基于云的客户服务消息传递解决方案,它对 1,000名美国成年人进行了一项调查,以确定他们对AI的看法以及技术领域的性别差距。在回答一个问题时,“ Alexa,Siri和Google助手默认为女性。您是否考虑过这个事实?” 总体而言,有53.2%的人表示没有。

LivePerson首席执行官Rob LoCascio说:“与其他技术不同,“使用AI,您正在创建要与其他人互动的东西,或者您正在使用它来补充人类活动,做出决策和建议。” “因此,我们不得不问为什么?为什么我们将这些“帮助者”技术性别化为女性?这对我们对世界上和工作场所中的女性的期望有何看法?女性天生就是“帮助者”;他们是“ na”;他们扮演行政角色;他们擅长接订单吗?”

人工智能系统中的偏差可能导致意想不到的后果

当然,不仅仅是数字助理有偏见问题。正如彭博社报道的那样,研究人员已经开始注意到AI系统重复并扩大其创作者偏见的趋势。

“公司,政府机构和医院越来越多地使用机器学习,图像识别和其他AI工具来帮助预测一切,从贷款申请人的信誉度到癌症患者的首选治疗。这些工具有很大的盲点,尤其对妇女和少数民族有影响。”该文章说。

人工智能系统中的偏差可能导致意想不到的后果

例如,在招聘和雇用中,人工智能通常用于确定理想职位的候选人。但是,如果放任自流,AI可能会使IT等领域的多样性问题更加严重,因为IT领域已经严重缺乏女性和代表性不足的少数民族。

郑重声明:本文版权归原作者所有,转载文章仅为传播更多信息之目的,如作者信息标记有误,请第一时间联系我们修改或删除,多谢。