自动驾驶汽车正走向AI障碍

2020-02-19 11:21:42    来源:    作者:

如果您相信首席执行官,那么全自动驾驶汽车可能只有几个月的路程。2015年,埃隆·马斯克(Elon Musk)预测,到2018年,特斯拉将实现全自动驾驶。Google也是如此。Delphi和MobileEye的Level 4系统目前定于2019年发布,同年Nutonomy计划在新加坡的街道上部署数千辆无人驾驶出租车。通用汽车将在2019年将一款全自动驾驶汽车投入生产,没有方向盘或驾驶员干预的能力。这些预测背后蕴藏着真正的金钱,押注的前提是该软件将能够赶上炒作。

自动驾驶汽车正走向AI障碍

从表面上看,完全自治比以往任何时候都更加紧密。Waymo 已经在亚利桑那州的有限但公共道路上测试汽车。特斯拉和其他许多模仿者已经在销售限量版的自动驾驶仪,并指望驾驶员在发生意外情况时进行干预。曾经发生过几次崩溃,有些是致命的,但是只要系统不断改进,逻辑就可以了,我们根本就不必干预。

但是,全自动驾驶汽车的梦想可能比我们意识到的要遥远。AI专家越来越担心,自动驾驶系统才能可靠地避免事故发生可能需要数年甚至数十年的时间。随着自我训练的系统应对现实世界的混乱,纽约大学(NYU)的加里·马库斯(Gary Marcus)等专家正准备对期望进行痛苦的重新调整,这种调整有时称为“人工智能冬天”。这种延迟可能会对依靠自动驾驶技术的公司造成灾难性的后果,使整个一代人都无法实现完全的自主权。

自动驾驶汽车正走向AI障碍

“无人驾驶汽车就像一个科学实验,我们不知道答案”

很容易看出为什么汽车公司对自主性持乐观态度。在过去的十年中,深度学习(一种使用分层机器学习算法从海量数据集中提取结构化信息的方法)推动了AI和技术行业几乎不可思议的进步。它为Google搜索,Facebook新闻源,对话式语音转文本算法和冠军Go-playing系统提供动力。在Internet之外,我们使用深度学习来检测地震,预测心脏病并在摄像机进纸上标记可疑行为,以及其他无可避免的其他创新。

但是深度学习需要大量的训练数据才能正常工作,几乎结合了算法将遇到的每种情况。例如,像Google Images这样的系统,只要能够训练出能够显示出每只动物什么样的动物的训练数据,就可以很好地识别它们。Marcus将这种任务描述为“插值”,对所有标有“豹猫”的图像进行了调查,并确定新图像是否属于该组。

工程师可以在数据的来源和结构方面发挥创意,但是对给定算法可以达到的范围设置了严格的限制。除非看到了成千上万只豹猫的图片,否则相同的算法无法识别出该豹猫-即使它看到了家猫和美洲虎的图片,并且知道豹猫介于两者之间。这个过程称为“一般化”,需要一套不同的技能。

长期以来,研究人员一直认为他们可以使用正确的算法来提高泛化技能,但是最近的研究表明,传统的深度学习在泛化方面甚至比我们想象的还要差。一项研究发现,传统的深度学习系统甚至很难在视频的不同帧上进行泛化,根据背景的微小变化将同一头北极熊标记为狒狒,猫鼬或鼬鼠。通过基于数百种因素的每种分类,即使图片的很小变化也可以完全改变系统的判断力,其他研究人员已在对抗性数据集中利用了这一点。

Marcus指出,聊天机器人热潮是针对泛化问题进行宣传的最新示例。他说:“我们有望在2015年成为聊天机器人,但它们并没有什么用,因为这不仅仅是收集数据的问题。” 当您在网上与某人交谈时,您不只是希望他们重新讨论以前的对话。您希望他们对您的发言做出回应,利用更广泛的对话技巧来产生您特有的回应。深度学习无法使这种聊天机器人成为现实。一旦最初的炒作逐渐消失,公司便对聊天机器人项目失去了信心,并且仍在积极开发中。

这让特斯拉和其他自动驾驶公司提出了一个可怕的问题:自动驾驶汽车会变得越来越好吗,例如图像搜索,语音识别以及其他AI成功案例?还是会遇到聊天机器人等泛化问题?自治是插值问题还是泛化问题?驾驶到底有多难测?

自动驾驶汽车正走向AI障碍

要知道还为时过早。“无人驾驶汽车就像一个科学实验,我们不知道答案。”马库斯说。我们以前从未能够在此级别实现自动驾驶,因此我们不知道它是什么样的任务。就确定标识熟悉的对象和遵循规则而言,现有技术应由任务决定。但马库斯(Marcus)担心,在容易发生事故的情况下进行良好驾驶可能会比业界想要的更为复杂。“就令人惊讶的新事物发生而言,对于深度学习而言,这不是一件好事。”

“安全不仅仅是AI技术的质量”

我们获得的实验数据来自公共事故报告,每份报告都有一些异常之处。2016年的一起致命事故是,Model S驱动器全速驶入一辆白色拖拉机拖车的后部,被拖车的高行驶高度和阳光的明亮反射所迷惑。3月,一名无人驾驶Uber撞车事故导致一名妇女在未经授权的人行横道出现后推着自行车撞死。根据NTSB的报告,Uber的软件将女人误认为是未知物体,然后是车辆,最后是自行车,每次更新其投影。在加利福尼亚的一次车祸中,Model X转向障碍物,并在撞击发生前迅速加速,原因尚不清楚。

每次事故似乎都是边缘情况,是工程师无法预料的事情。但是,几乎每起车祸都涉及某种不可预见的情况,如果没有概括的能力,自动驾驶汽车将不得不像第一次那样面对这些情况。结果将是一连串的偶然事故,随着时间的流逝,这种事故不会越来越普遍或危险性降低。对于怀疑论者来说,翻阅手动脱离接触报告表明情况已经很好,进展已经达到平稳状态。

吴恩德(Andrew Ng)是百度前高管Drive.AI的董事会成员,也是该行业最杰出的推动者之一。他认为,问题不在于构建完美的驾驶系统,而在于培训旁观者以预测自动驾驶行为。换句话说,我们可以使道路对汽车安全,而不是反过来。作为一个不可预知的案例的例子,我问他是否认为现代系统可以用弹簧娃娃操纵行人,即使他们以前从未见过。Ng告诉我:“我认为许多视听团队都可以在人行横道上使用弹簧娃娃。” “话虽如此,在高速公路中间弹跳高跷确实很危险。”

他说:“我们应该与政府合作,要求人们合法和体贴,而不是建立人工智能来解决弹簧娃娃问题。” “安全不仅仅是AI技术的质量。”

“这不是一个容易隔离的问题”

深度学习并不是唯一的AI技术,公司已经在探索替代方法。尽管技术在行业内受到严格保护(仅看Waymo最近针对Uber提起的诉讼),但许多公司已转向基于规则的AI,这是一种较老的技术,可让工程师将特定的行为或逻辑硬编码到其他自控系统中。它不具有仅通过研究数据来编写自己的行为的能力,这正是使深度学习如此激动人心的原因,但它可以使公司避免某些深度学习的局限性。但是,由于深度学习技术仍然深刻地影响着感知的基本任务,因此很难说工程师如何成功隔离潜在的错误。

Lyft董事会的风险资本家Ann Miura-Ko说,她认为问题的一部分是对自动驾驶汽车本身的高期望,将除完全自主之外的任何事情归类为失败。Miura-Ko说:“期望他们从零上升到第五级是对期望的错失,而不是技术的失败。” “我认为所有这些微改进都是实现完全自治的非凡功能。”

不过,目前尚不清楚自动驾驶汽车能在目前的困境中停留多长时间。像特斯拉的自动驾驶仪这样的半自主产品足够智能,可以应付大多数情况,但是如果发生任何不可预测的事情,则需要人工干预。当出现问题时,很难知道是汽车还是驾驶员。对于某些批评家来说,即使错误很难完全归咎于机器,该混合动力无疑比人类驾驶员安全。兰德公司(Rand Corporation)的一项研究估计,无人驾驶汽车必须行驶2.75亿英里,而无人丧命,以证明它们与人类驾驶员一样安全。与特斯拉的自动驾驶仪相关的首例死亡进入该项目约1.3亿英里,远未达到目标。

但是,由于深度学习是汽车感知物体并做出响应的核心,因此提高事故发生率可能比看起来要难。杜克大学教授玛丽·卡明斯说:“这不是一个容易隔离的问题。”他指出,今年早些时候,Uber撞车致死。“如行人死亡,感知决定周期通常是相互联系的。基于感知上的歧义做出了不采取任何措施的决定,并且紧急制动被关闭,因为它收到了来自传感器的太多错误警报。”

这场崩溃以优步在夏季暂停其自动驾驶工作而告终,这对其他计划推出该公司的公司来说是一个不祥的信号。在整个行业中,假设距离最大的公司将构建最强大的系统,那么公司将争夺更多的数据来解决问题。但是在公司看到数据问题的地方,Marcus认为很难解决一些问题。“他们只是在使用他们希望的技术,”马库斯说。“他们之所以依赖大数据,是因为他们拥有拐杖,但没有证据能使您达到我们所需的精确度。”

郑重声明:本文版权归原作者所有,转载文章仅为传播更多信息之目的,如作者信息标记有误,请第一时间联系我们修改或删除,多谢。