一个以原则为基础的范例以培养自主机器的道德行为

2020-04-09 11:03:19    来源:新经网    作者:冯思韵

哈特福德大学、康涅狄格州大学和马克斯·普朗克智能系统研究所的一个研究小组最近提出了一种基于案例支持的、基于原则的行为范式,以确保自主机器的道德行为。 他们的论文发表在IEEE的论文中,认为自治系统的伦理意义行为应该以明确的伦理原则为指导,通过伦理学家的共识来确定。

一个以原则为基础的范例以培养自主机器的道德行为

“今年是电影《2001:太空漫游》50周年,”进行这项研究的研究人员之一迈克尔·安德森告诉TechXplore。 在阅读《2001年的制作:世纪之交的太空漫游》时,我感到,HAL的大部分能力已经失去了科幻小说的光环,正处于实现的边缘。 这也让我感到震惊的是,他们的道德是如此的错误:如果HAL在拐角处,是时候纠正道德了。”

安德森和他的同事一直致力于发现伦理原则,这些原则可以体现在自主运作的机器上,作为一个名为“机器伦理”的项目的一部分。 他们认为人工智能的行为应该以伦理原则为指导。 这些原则由伦理学家的共识决定,不仅应有助于确保复杂和动态系统的伦理行为,而且应作为证明这种行为的基础。

一个以原则为基础的范例以培养自主机器的道德行为

研究人员开发了一种可扩展的、一般案例支持的和基于原则的行为范式,称为CPB。 在这种范式中,一个自治的系统使用一个从伦理学家同意采取正确行动的案例中抽象出来的原则来决定它的下一个行动。

一个以原则为基础的范例以培养自主机器的道德行为

安德森解释说:“CPB利用机器学习从伦理困境中特定案例的伦理相关特征中抽象出伦理偏好原则,在这种情况下,伦理上更好的选择是明确的。” “一个系统可以利用这一原则来确定任何特定时刻在道德上可取的行动。

郑重声明:本文版权归原作者所有,转载文章仅为传播更多信息之目的,如作者信息标记有误,请第一时间联系我们修改或删除,多谢。