人工智能与传播中的性别偏见的延续

2020-05-12 15:19:46    来源:新经网    作者:冯思韵

上周我参加了一个网络研讨会。它描述了Amazon AWS正在推出的新企业搜索工具。产品名称?肯德拉。这表明有必要再次讨论严重的性别偏见问题。这并不是纯粹对亚马逊的打击,而是对我们整个行业的打击。从数字助理到聊天等等的人工智能工具正在造成一个应纠正的问题。

人工智能与传播中的性别偏见的延续

Siri,Alexa,Cortana等都使用女性背景和声音。例如,虽然Cortana这个名字听起来并不像是女性,但这个名字来自Halo游戏中的女性角色。

问题也不仅仅局限于数字助理。一个由联合国教科文组织报告的问题,去年,介绍了性别偏见,隐式和显式的,技术内。然而,主要部分集中在数字助理上。然而,挑战也扩展到了聊天机器人。正如报告中另外指出的那样,“尽管如此,新方向不应掩盖现状。聊天机器人通常仍被编程为女性。据VentureBeat估计,仅在2016年就引入了30,000个聊天机器人,其中绝大多数具有女性角色。”

同时,现在偏见的经典例子是亚马逊取消的人力资源系统,该系统基于有关公司先前雇用的人员的培训数据而存在性别偏见。我应该指出,我不选择亚马逊。该公司足够大,可以轻松找到信息,但是我敢肯定,该行业中的许多其他公司也存在类似的问题。

技术人员的决定不仅限于纯技术公司。例如,美国银行的助手是埃里卡(Erica)。Parmy Olsen 在此站点的另一篇文章中列出了许多其他银行业务应用程序。

性别偏见的一个借口是,公司声称人们对陈规定型观念感到满意。但是他们并不根深蒂固。正如联合国教科文组织的报告所示,公司确实根据对不同国家的未披露分析做出一些决策。例如,“有趣的是,当用户选择阿拉伯语,英语,英语,荷兰语或法语作为语言选项时,默认情况下,Siri是男性,这表明性别的意图不仅仅在于人们普遍偏爱女性声音。”

公司的存在是为了牟利,因此毫不奇怪,他们创造了他们认为会吸引并留住客户的AI“声音”(包括文字和音频)。但是,公司也应被视为“良好的企业公民”。应该显示的一种方法是在安装和常规操作期间提供简单的选项,供客户选择用于AI通信的多种声音。这也意味着名字不应该像今天这样被自动赋予女性。

在大多数社会中,性别偏见是一个严重的问题。在高科技领域,这是一个更大的问题。然而,我们的部门也声称拥有解决这些偏见的能力和技能。聊天机器人,数字助理和其他计算机通信方式已经过时了,无法开始支持这一主张了。

郑重声明:本文版权归原作者所有,转载文章仅为传播更多信息之目的,如作者信息标记有误,请第一时间联系我们修改或删除,多谢。