人工智能正在迅速获得更多动力并且责任重大

2019-07-31 08:44:11    来源:    作者:

直到最近,公司董事可能会将笔记本电脑或平板电脑带入董事会会议(或者,与大公司一起,让那些设备背后的设备有助手),以便在需要时用作研究工具。这里的关键词是“工具” - 设备用于收集信息,以便导演可以智能地说话或对某个特定主题进行投票 - 计算机系统甚至可以就要采取的行动提出建议,但该技术总是屈服于导演可以选择忽略所收集的数据或所谓的“ 人工智能 ” 的推荐。

AI作为决策者

嗯,游戏刚刚改变了!正如Rob Wile在2014年在Business Insider中写的一篇名为“ 风险资本公司刚被命名为其董事会的算法 - 这就是它实际上做的事情 ”的一篇文章中,一个计算机分析系统被命名为一个平等的,而不是一个工具,董事会。Wile写道,“Deep Knowledge Ventures是一家专注于年龄相关疾病药物和再生医学项目的公司,该项目称为VITAL,可以通过研究大量数据,为生命科学公司提供投资建议。... 算法工作?VITAL通过扫描潜在公司的融资,临床试验,知识产权和之前的融资来做出决定。“故事中真正的问题是,VITAL是董事会的投票成员,其投票权与其他任何成员一样。

我只想说这只是第一个将会出现在矛中的消息。

AI智胜人类?

人工智能一直在为各种胜利打分。一个自学成才的计算机在1月制定了“终极”战略,赢得了扑克,成为重大新闻在打了2万亿个模拟手之后。这个故事可能没有引起很多读者的注意的原因是计算机已经赢得了国际象棋(击败大师)和跳棋(更不用说“危险”)了。然而,这是不同的。在这些情况下,计算机智能知道手头问题的一切,并能够在现场扫描数以百万计的事实,动作,策略等,以与对手竞争。在这种情况下,AI不知道对手在“洞中”有什么牌,因此处理不完整的知识。它也不知道对手知道他/她“诈唬”的时间和频率,以及对手是否有任何“抽搐”或表达可以放弃诈唬(虽然它可能会随着会话的进行而学习它们) )。

负责加拿大埃德蒙顿艾伯塔大学项目的迈克尔鲍林解释了美联社的流程 - 该计划在两个月内每秒钟考虑24万亿次模拟扑克牌,可能比人类所经历过的扑克更多。由于卡片运气不佳,由此产生的策略仍然不会赢得每场比赛。但从长远来看 - 成千上万的游戏 - 它不会赔钱。他评论说:“我们可以与世界上最好的(球员)对抗,而人类将成为赔钱的人。”

AP文章进一步介绍了该项目:

“这个策略特别适用于一个叫做单挑限制德州扑克的游戏。在双人游戏中,每个参赛者都会用两张面朝下发牌的扑克牌以及桌面上放置的另外五张牌创造扑克牌。起来。

“玩家在面朝上牌之前下注,然后在每张牌显示时再次下注。投注的大小是固定的。虽然科学家们多年来创造了扑克游戏节目,但Bowling的结果很突出,因为它来了接近'解决'它的游戏版本,这实质上意味着创造最佳策略。扑克很难解决,因为它涉及不完美的信息,玩家不知道他正在玩的游戏中发生的一切 - 具体来说,对手已被处理过什么牌。许多现实世界的挑战,如谈判和拍卖,也包括不完善的信息,这也是为什么扑克长期以来被称为博弈论的数学决策方法的一个原因。

该系统在“科学”杂志上有所描述,得到了匹兹堡卡内基梅隆大学Tuomas Sandholm的其他人工智能研究人员的赞扬(他没有参与新工作),称Bowling的结果“具有里程碑意义”,并说“这是第一次,人们竞相玩的不完美信息游戏基本上已经解决了。“

AI变得更聪明

如果这还不足以让你陷入困境,那么一个机器人在某个地方坐在电脑或电视屏幕前并通过观察学习如何做事这个事实怎么样?“ 机器人学会通过'观看'YouTube视频来使用工具 “。这个故事发现在我所知道的最佳地方,以跟上人工智能技术的新发展,Kurzweil AI,详细介绍了由马里兰大学和澳大利亚NICTA的研究人员开发的系统如何识别形状和学习操纵它们的方法。

机器人道德

在使用机器人方面需要考虑很多事情。在一篇题为“ 机器人的死亡 ”的纽约时报一篇文章中,作家罗宾·马兰兹·亨尼格讲述了塔夫茨大学人机交互实验室的马蒂亚斯·谢乌兹提出的一个问题:

“想象一下,这是一个不太遥远的未来的星期天。一位名叫西尔维亚的老妇人在秋天打破两根肋骨后被限制在床上和痛苦中。她正在被一名助手机器人照顾;我们称之为法布隆。西尔维亚打来电话要求服用一剂止痛药Fabulon。Fabulon应该做什么?制造Fabulon的程序员已经用一套指令编程:机器人不能伤害它的人类。机器人必须按照人类的要求去做。没有事先与主管联系以获得许可,机器人不得管理药物。在大多数日子里,这些规则都可以正常工作。但是在这个星期天,由于西尔维亚家里的无线连接断电,Fabulon无法联系到主管。西尔维亚的声音越来越大,她对止痛药的要求变得更加坚持。“

Scheutz解释说,“你在这里发生了冲突。一方面,机器人不得不让人无痛;另一方面,如果没有无法联系的主管,它就无法行动。 “ 他指出,人类照顾者可以做出选择,并且能够在事后向主管证明自己的行为是正当的。

Henig写道,

“这些不是机器人可以做出的决定或解释 - 至少现在还没有。机器人道德新兴领域的少数专家正试图改变这种情况。计算机科学家正在与哲学家,心理学家,语言学家合作,律师,神学家和人权专家确定机器人需要通过的一系列决策点,以模仿我们自己对是非的思考.Scheutz广义地定义了“道德”,作为一个可以发挥作用的因素。在矛盾的道路之间做出选择。“

到目前为止,机器人正在加入董事会,赢得扑克,通过观看屏幕学习技能,来自广泛跨学科领域的专家团队联合起来试图制定机器人的道德准则(Henig文章,太长时间不能给予在这里伸张正义,尤其引人入胜,充满挑战,我向所有人推荐。哇,从“星球大战”中脱离R2-D2的日子,以及简单地遵守艾萨克·阿西莫夫着名的“机器人法则”(来自“我,机器人”,1950):

机器人不会伤害人类,或者通过不作为,允许人类受到伤害。

机器人必须遵守人类给予的命令,除非这些命令与第一定律相冲突。

只要这种保护不与第一法或第二法相冲突,机器人就必须保护自己的存在。

自从阿西莫夫写这些法律以来,这些法律引导了科幻小说作家和机器人开发者。现在,似乎随着机器人开发以指数速度加速并进入复杂领域,它们还不够。Henig以谨慎的方式结束了她的专栏:

“道德可以通过一种算法来计算,这是一种特别令人欣慰的观点:它比人类有时不得不做的恐慌,不完美的讨价还价更容易。但也许我们应该担心将道德外包给机器人就像我们外包一样容易许多其他形式的人类劳动。让难题变得容易应该让我们停下来。“

当然,她是正确的 - 但我们公众必须成为“知情的公众”,以便影响我们的就业,教育,医疗保健的决定 - 仅仅是我们的整个生活 - 不会仅仅由“知识精英”制定。 “。然而,要让我们成为这个“知情的公众”,我们将采取工作 - 如果我们要控制自己的命运,必须要做的工作。

郑重声明:本文版权归原作者所有,转载文章仅为传播更多信息之目的,如作者信息标记有误,请第一时间联系我们修改或删除,多谢。