专家表示没有任何一项政策可以管理所有人工智能

2019-11-20 17:15:09    来源:    作者:

人工智能无处不在。移动地图通过交通为我们提供路线,算法现在可以驾驶汽车,虚拟助手可以帮助我们在工作和生活之间平稳切换,而智能代码则可以使我们的下一首新歌呈现。

但是,人工智能也可能被证明是危险的。特斯拉首席执行官埃隆·马斯克(Elon Musk)曾警告说,有偏见,不受监督和不受监管的AI可能是“我们作为文明面临的最大风险”。相反,AI专家担心自动化系统可能会吸收人类程序员的偏见。而且,当将偏见编码到支持AI的算法中时,将几乎无法消除。

AI偏见的例子是丰富的:在2015年7月的谷歌照片的AI系统标记黑人大猩猩 ; CNET在2018年3月报道说,亚马逊和谷歌的智能设备似乎难以理解口音 ; 2018年10月,亚马逊破坏了以人工智能为动力的工作招聘工具,该工具似乎歧视妇女; 2019年5月,联合国教育,科学及文化组织(UNESCO)的一份报告发现,人工智能个人助理可以强化有害的性别定型观念。

为了更好地理解AI的治理方式,以及如何防止人类的偏见改变我们每天依赖的自动化系统,CNET与位于旧金山的Salesforce AI专家Kathy Baxter和Richard Socher进行了交谈。Baxter说,调节技术可能具有挑战性,并且该过程将需要细微差别。

她说,该行业正在努力开发“负责任的,值得关注的,值得关注的,可以保护人权的人工智能”。“我们确保[该程序]不侵犯这些人权。它还必须透明。它必须能够向最终用户解释它在做什么,并为他们提供机会做出明智的选择。它。”

Baxter说,Salesforce和其他技术公司正在针对AI数据模型中使用的数据标准制定跨行业指南。“我们将显示模型中使用的因素,例如年龄,种族,性别。如果您使用的是受保护的数据类别之一,我们将升旗。

郑重声明:本文版权归原作者所有,转载文章仅为传播更多信息之目的,如作者信息标记有误,请第一时间联系我们修改或删除,多谢。