如果您的自动驾驶汽车必须选择击中谁

2020-03-29 12:16:36    来源:新经网    作者:冯思韵

公众陷入与大数据和人工智能的混乱,爱恨交织的关系。新闻中令人兴奋的新技术和数据轻重重重的影响了双方。随着有关道德和软件自主性的难题日益迫切,共识仍然难以捉摸。

如果您的自动驾驶汽车必须选择击中谁

麻省理工学院工程系统教授斯图尔特·马德尼克(Stuart Madnick)(如图)说:“道德问题的麻烦在于,他们往往没有一个很好的明确答案 。” 这是因为几乎没有玫瑰在AI中没有刺,也没有潜在的陷阱而没有回报。我们都喜欢预见下一个问题的应用程序中的智能算法。他们需要大量的数据集进行训练。普通消费者认为,这对我来说很好,只要这不是我的数据即可。

Madnick采访过 戴夫Vellante表示 和保罗·吉林,theCUBE,SiliconANGLE Media的移动即时串流工作室共同主办的MIT CDOIQ研讨会在剑桥期间。他们讨论了面临AI的制造商和消费者(看到完整的采访成绩单硬伦理问题在这里)。

如果您的自动驾驶汽车必须选择击中谁

事实是,根据Madnick的说法,没有大数据或AI不会损害数据隐私或主权。我们仍然没有经验来判断可接受的成本效益比。

麦德尼克说:“几乎我们所做的每项研究都涉及到此类[道德]问题,而且人们都在投票,几乎总是将其分散在各个方面,因为其中任何一个都是错误的决定。” “那么哪个错误的决定最不糟糕?”

Madnick指出,除了隐私问题之外,有关自动驾驶人工智能的问题也越来越多地涉及自动驾驶汽车的方法。在麻省理工学院,麦尼克(Madnick)向学生讲授技术伦理学。自动驾驶的主题提出了一些难题。

例如,效用理论指出,如果汽车必须撞到一个人或多人,则最好撞到最少的人。以自动驾驶汽车中的驾驶员面对可能发生的碰撞为例。可以将汽车编程为撞到墙上,可能会杀死驾驶员,一名带婴儿车过马路的妇女或成群的三名男子。第一个选择是杀死汽车驾驶员,第二个选择是女人和婴儿,最后一个是三个男人。

如果您的自动驾驶汽车必须选择击中谁

Madnick解释说,全班通常都不会对这种安排感到100%满意。显然,在AI中仍有很多道德方面的问题需要解决。

郑重声明:本文版权归原作者所有,转载文章仅为传播更多信息之目的,如作者信息标记有误,请第一时间联系我们修改或删除,多谢。