确保人工智能具有社会责任感

2019-08-02 16:19:56    来源:    作者:

59%的科技工作者有从事他们认为可能对社会有害的产品的经验,其中超过四分之一的人感到如此强烈以至于他们辞职它。这与AI产品有关。另外,63%的受访者表示他们希望在本周内有更多的空间来考虑他们所从事的技术的影响。样本量很小,可能没有代表性,但报告仍然具有指导意义。

这与最近的两个趋势有关。首先,员工激进主义在大科技雇主的社会影响方面崛起 - 从亚马逊工人呼吁公司提出气候变化战略(最近被股东拒绝)到#GoogleWalkout运动,抗议搜索巨头处理性行为骚扰,不当行为,透明度和其他工作场所问题。其次,人们普遍关注人工智能的进步 - 来自“日常”应用的伦理学,例如“间谍”语音助手,破坏自由的面部识别系统,以及用于预测性治疗或表面上更公平的算法对根深蒂固的偏见的长期存在招聘对于人工智能系统的潜力(由科幻电影和哲学启发的网络游戏传播)最终导致人类的垮台。

最近出现的是对这种怀疑主义和诽谤行为的反对 - 其中一些无疑是有道理的; 其中一些更为幻想 - 一直是“人工智能”的概念,这是“技术为善”运动的一个更具体的方面。

“AI for good”趋势促成了诸如Google AI影响力挑战等计划的制定,通过应用人工智能来识别和支持20家创业公司,从医疗保健到新闻业等广泛领域的挑战,创造积极的社会影响力,能源传播,教育环保主义。斯坦福大学推出了以人为本的人工智能研究所。与此同时,在斯坦福大学,我的同事Jennifer Aaker和 Fei-Fei Li开发了一门课程 - 设计人工智能以培养人类福祉 - 旨在满足人工智能产品,服务和企业对社会利益的需求。

这是关键,因为标签“AI for good”有些误导。它表明有多种类型的人工智能 - 无论是好还是坏 - 而我们应该专注于确保“善”被嵌入到人工智能的概念中。例如,将“电力换成电力”称为电力是没有意义的 - 电力和基于它的产品和服务都是好的,即使它们当然可以用于坏的目的。电力 - 然后是互联网连接 - 成为日常生活的基础,它变成了一种实用工具,我们正在加速迈向不久的将来,其中AI(或至少由它驱动的服务和经验)将变得同样重要,日常生活的基础。

那么,嵌入AI的核心是什么意思呢?正如我之前在讨论传统和社会企业之间经常被误解的区别时所描述的那样,它不仅仅是简单地将一个积极的应用或结果应用于减轻或响应其他负面影响的过程。它是关于避免完全产生负面影响,并使积极的社会价值不仅仅是事后的想法或副产品,而是积极的活动目标。

郑重声明:本文版权归原作者所有,转载文章仅为传播更多信息之目的,如作者信息标记有误,请第一时间联系我们修改或删除,多谢。