确保公司AI符合道德的8种方法

2020-02-04 11:03:08    来源:    作者:

跟上人工智能(AI)和数据隐私的发展势不可挡。尽管AI拥有大量的希望和机遇,但人们也担心数据滥用和个人隐私受到威胁。在我们评估这些主题时以及随着第四次工业革命的进行,人们对AI的前景和危险以及组织如何更好地实现其价值提出了疑问。

确保公司AI符合道德的8种方法

对于工程师和开发人员而言,将“道德规范”集成到技术产品中可能会变得抽象。尽管许多技术公司正在以具体而切实的方式独立地研究如何做到这一点,但我们必须打破这些孤岛并分享最佳实践。通过相互协作以相互学习,我们可以提高整个行业的门槛-一个很好的起点是着重于获得信任的事物。

许多公司都在发布有关设计和部署AI产品的方法的高级原则。但是,原则只有在实际实施的情况下才有价值。Workday最近发布了《道德AI的承诺》,以展示我们如何实施直接建立在客户服务,诚信和创新的核心价值之上的原则。根据我们的经验,这是为希望在整个组织中倡导这些原则的技术公司提供的八课:

1.定义“ AI伦理”的含义。对于公司中所有相关的利益相关者,此定义必须是特定的且可采取行动。在我公司,这意味着我们的机器学习(ML)系统反映了我们对道德AI的承诺:我们以人为本。我们关心社会;我们公平行事并尊重法律;我们透明且负责;我们保护数据;并且我们提供了适合企业使用的机器学习系统。

确保公司AI符合道德的8种方法

2.在产品开发和发布框架中构建符合道德规范的AI。这些不能是为开发人员和产品团队带来更多工作和复杂性的单独过程。Workday已将我们的原则构建到我们产品开发的架构中,并创建了可推动持续遵守这些原则的流程。新的机器学习控制已被纳入我们的正式控制框架中,以作为对我们机器学习伦理原则的额外执行。我们的开发团队通过提出有关数据收集和数据最小化,透明度和价值的问题,以道德的角度审查每一种机器学习产品。我们在隐私领域拥有悠久的历史,包括设计隐私流程以及根据我们的控制和标准进行的第三方审核。Workday接受了一套针对计算机学习的按道德规范设计的控件,并建立了健全的审批机制来发布新技术以及任何新的数据使用方式。我们致力于持续审查我们的流程,并不断发展以纳入新的行业最佳实践和监管准则。

3.创建跨职能的专家组,以指导有关负责任的机器学习和人工智能的设计,开发和部署的所有决策。在此旅程的早期,Workday建立了一个机器学习工作队,由来自我们的产品和工程,法律,公共政策和隐私,道德与合规团队的专家组成。这些小组研究了我们产品中ML的未来和现有用途。汇集这些多样化的技能和观点来讨论产品中ML的未来和现有用途非常有效,并且使我们能够在产品生命周期的早期识别潜在问题。

4.将客户协作带入负责任的AI的设计,开发和部署。在产品开发生命周期中,Workday会与我们的客户咨询委员会合作,该委员会来自我们广泛的客户群,在我们的产品开发生命周期中,它获得了有关AI和ML相关开发主题的反馈。通过我们的早期采用者计划,我们与少数几个作为设计合作伙伴的客户紧密合作,通过创新服务来测试新的ML模型和功能,从而使我们能够尽早了解和解决客户关于AI和ML的想法和问题我们共同开发以人为本的ML解决方案。

5.采用生命周期方法来偏向机器学习。机器学习工具提供了一个难得的机会,可以帮助我们的客户利用数据来增强人类的决策能力。有了这个机会,就有责任建立企业就绪的工具来维持客户的信任,这就是为什么我们对道德AI承诺的重点之一就是减轻ML中的有害偏见。我们使用“生命周期方法”,从新产品的最初概念到发布后阶段,我们将通过这种方法执行各种偏差评估和审查。

6.要透明。ML对数据的道德使用要求透明。由于ML算法可能非常复杂,因此公司应该在解释使用什么数据,如何使用数据以及用于什么目的方面超越其他领域。向客户说明您的机器学习技术如何工作以及它们所提供的好处,并描述为您提供的任何机器学习解决方案提供支持所需的数据内容。在您的机器学习解决方案中向客户展示责任。

7.授权您的员工设计负责任的产品。我们通过必需的道德培训模块,工具包,研讨会,员工入职培训和讲习班来做到这一点,以确保对员工进行如何遵守我们的AI道德承诺的培训。例如,一个以人为中心的设计思想研讨会使用不同的场景和角色来帮助Workday员工理解我们对创建道德ML技术的承诺。

确保公司AI符合道德的8种方法

8.分享您所知并向行业内其他人学习。我们通过参加行业团体和同行会议(例如世界经济论坛技术伦理设计和部署指导委员会)来做到这一点,以帮助开发技术产业的道德框架。此外,Workday将监控和促进新标准和计划作为优先事项。在美国,我们在道德AI方面与立法者和机构官员进行了广泛接触,包括制定和参加国会AI核心小组的工作人员介绍“道德AI的行业方法”的简报会,并在行业和决策者之间扮演召集人的角色。多个场所。此外,我们还为美国国家科学基金会(National Science Foundation)对国家人工智能研究与发展战略计划和美国国家标准技术研究院(NIST)的报告,人工智能标准和工具开发。我们继续倡导NIST在AI伦理工具的开发中发挥更大的作用。在欧洲,Workday参与了一项试点计划,以评估欧盟高级专家组的道德准则(HLEG)可信赖的人工智能评估列表。

在我们不断发展的道德AI世界中,分享实践并确定我们在此过程中学到的知识将比以往任何时候都更加重要。我们渴望听到其他人对扩大规模和实施有效的方法的意见,我们欢迎分享的机会。实际上,Workday 与世界经济论坛进行合作的目的是鼓励其他人加入我们,分享他们在倡导负责任和道德技术方面的最佳实践。追求负责任,合乎道德的人工智能和技术至关重要-并且比任何一家公司或组织都更大。

我们应当共同努力,通过我们的行动建立善意和信任,使我们能够认识到这些强大的新技术的好处。

郑重声明:本文版权归原作者所有,转载文章仅为传播更多信息之目的,如作者信息标记有误,请第一时间联系我们修改或删除,多谢。