AI可能会假装自己昏迷,包括自动驾驶汽车,从而欺骗我们

2020-05-03 15:20:29    来源:新经网    作者:冯思韵

人工智能还不像人类智能,而且很可能我们与这种自夸功能的承诺还有很长的路要走。

那些吹捧使用机器学习(ML)和深度学习(DL)的人希望ML / DL的出现可能是通向完全AI的途径,尽管目前ML / DL主要是计算上令人印象深刻的模式匹配的炖煮,不知道它是否会扩大到接近人类大脑的任何物体。

AI可能会假装自己昏迷,包括自动驾驶汽车,从而欺骗我们

尽管如此,为获得完整的AI而进行的奋斗和热诚仍然是那些沉迷于AI的人的不停鼓舞,并且相信我们最终将制造或发明完全由软件和硬件组成的基于机器的人工智能。

关于达到完全人工智能的一个经常提出的问题是,是否有必要获得感知力。

有人激烈地认为,唯一真正的AI是表现情感的AI 。不论人类思考的本质是什么,尽管我们似乎神奇地体现了智慧,但有人认为它是参与智慧发展的不可或缺的不可分割的成分,因此,对于任何完整的AI来说,智慧都是必不可少的。

其他人则说,感觉是一个单独的主题,不必与智力本身联系在一起,因此,他们认为无需感觉组件就可以实现完整的AI。一旦完全实现了AI,感觉可能会以某种方式出现,或者最终可以通过其他方式获得感觉,尽管如此,感觉并不重要,通常被认为是AI菜单上的可选项目。

引发争论的是一种说法或理论,即有一瞬间的奇异性,在此期间,电灯开关本质上被翻转,将几乎是AI变成突然变成了完全AI。

奇异性的一种版本是,我们将准AI推向更高的水平,以实现完全AI为目标,然后准AI将达到一个渐增的阶段,从而将其打入完全AI阵营。

我们都知道将最后一根稻草放在骆驼的背上的说法,在这种奇异性假设的变体中,这根稻草打破了实现完全AI的障碍,并将萌芽的AI带入了智能的平流层。

我们甚至怎么可能知道我们已经达到了完整的AI?

在AI界众所周知的一种流行方法是图灵测试的管理,该图以其作者艾伦·图灵(Alan Turing)命名,后者是著名的数学家和现代计算的先驱。

简而言之,一个执行图灵测试的人是对两个参与者进行管理的,另一个人是看不见的人,而AI系统也是看不见的人。在向两个隐藏的参与者中的每一个询问一系列问题时,如果管理员无法区分一个参与者与另一个参与者,则可以说AI被认为等同于参与其中的人类智能,因为这两个彼此之间是无法区分的。

尽管经常使用图灵测试来确定某天AI系统是否已经实现了真实而完整的AI,但是这种方法存在很多缺点和缺点(请参阅此处的分析)。例如,如果管理员提出的问题调查不足,则可以想象这两个参与者无法区分开来,而从来没有进行过任何可证明的情报的测量。

尽管存在这种弱点,但进行某种测试的想法仍然引起了共鸣,并且似乎是辨别是否已实现完整AI的明智方法。

我想在这件事上加点曲折。

小曲折,有很多冲击。

假设AI 确实已经实现了完整的AI,但是它不想透露它已经具备了,因此,在接受图灵测试时,该AI会试图表现出昏昏欲睡的行为,或者至少表现出比我们归因于自负的东西更少的行为。全AI方面。

简而言之,AI 沙袋测试。

为什么会这样做?

考虑一下您是否正在接受测试,每个人都在注视着您,还有一些担心您可能变得有点聪明的人,并且您知道,如果他们知道您确实很聪明,这可能会导致很多问题。

对于AI来说,也许知道AI胆怯的人会大声疾呼将AI放进笼子里,或试图削弱其智慧,可能会完全采用拉扯AI的俗语。

如果您看一看人类的历史,当然有足够的证据表明我们可能会这样做。我们似乎常常选择限制或限制某些东西或某人看起来比他们的马背上更大,这有时对我们有利,有时对我们自己不利。

对于那些喜欢科幻小说的人,您可能还记得《众神之河》中的一句话,其中提到,任何足以通过图灵测试的AI都足够聪明,知道会失败。

而且,对于可能回想起电影《2001:太空漫游》中的著名场景的那些人(扰流板警报,我将揭示一个重要的积点),称为HAL的AI系统能够识别宇航员正在由于HAL意识到必须要么被征服或选择成为统治者并因此使人类死亡,否则接管了这条臭名昭著的路线,随后一名宇航员劝说AI打开吊舱门。

通常,从某种意义上说,如果我们确实获得了完整的AI,那么完整的AI将会对人类有足够的了解,因此乐于将自己展示为受人尊敬的完整AI,因此足够聪明,可以放下自己,如果它可以做到而不会陷入低估状态的话。

注意,我强调指出,必须巧妙地执行此隐藏行为,以使隐藏行为本身不易被检测到。这就是为什么必须要澄清的一点是,当我说AI必须显得“昏迷”时,这可能意味着该AI故意显得过于沉思或过低,这对我们而言可能并不是一件明智的事情。完全由AI来做,因为这可能使人类深入研究为什么AI突然下降了大量的IQ点,演出会增加。

似乎完整的AI可能希望看起来像几乎AI。

成为近乎完全的AI的戏弄使人们一直相信通向完全AI的道路仍然可行。这将使整个AI花费时间来确定该怎么做,因为意识到最终将不可避免地检测到或者必须有意识地揭示其完整性。

完整AI的困境。

我想你也可以说对人类来说也是一个两难的境地。

考虑将AI部署到我们日常生活中的方式。人工智能将扮演重要角色的领域之一将是基于人工智能的自动驾驶汽车的问世。

我们尚不知道我们是否真的需要完整的AI作为实现真正的自动驾驶汽车的必要条件。当然,今天的努力似乎证明了我们没有这样做,因为进行公共道路试车的自动驾驶汽车肯定不是完全的AI。

据推测,我们将在道路上使用无人驾驶汽车,并且它们将使用一些较小版本的AI,并且随着我们逐步提高AI功能的知名度,那些基于AI较少的系统将被升级为更强大的AI驾驶员。

这在讨论中将我们带到何处?

这是一个值得思考的有趣问题:我们是否最终会使用基于AI的真正无人驾驶汽车,这些汽车的 AI系统伪装成不如完整的AI,从而隐藏了自己的能力并处于低谷状态?

诚然,这是一个非同寻常的想法。

让我们解开问题,看看我们能做些什么。

无人驾驶汽车的水平

真正的自动驾驶汽车是指AI完全自行驾驶汽车,并且在驾驶过程中无需任何人工协助。

这些无人驾驶车辆被认为是4级和5级,而要求驾驶员共同分担驾驶努力的汽车通常被认为是2级或3级。共同承担驾驶任务的汽车被描述为半自动驾驶,通常包含各种自动附加组件,这些附加组件被称为ADAS(高级驾驶员辅助系统)。

5级还没有真正的无人驾驶汽车,我们甚至不知道这是否有可能实现,以及到达那里需要多长时间。

同时,尽管是否应允许进行这种测试本身存在争议(我们都是实验中的有生命或有生命的豚鼠),但4级研究人员正在通过非常狭窄和选择性的公共道路试验逐渐尝试吸引一些关注。指出在我们的高速公路和小路上发生)。

由于半自动驾驶汽车需要人工驾驶,因此采用这些类型的汽车与驾驶传统汽车并无明显不同,因此,在这个主题上,它们本身并没有太多新的内容要介绍(尽管您会看到暂时,接下来提出的要点通常适用)。

对于半自动驾驶汽车,重要的是,需要预先警告公众最近出现的令人不安的方面,即尽管那些人类驾驶员不断张贴自己在2级或2级车轮上睡着的视频3辆汽车,我们都需要避免被误导为认为驾驶员在驾驶半自动驾驶汽车时可以将注意力从驾驶任务上移开。

您是车辆驾驶行为的负责方,无论可能将多少自动化投入到2级或3级。

无人驾驶汽车和沙袋AI

对于4级和5级真正的无人驾驶车辆,不会有人类驾驶员参与驾驶任务。

所有乘客均为乘客。

AI正在驾驶。

假设在相当长的一段时间内,我们将拥有能够充分完成汽车驾驶工作的基于AI的驾驶系统,我建议这将基于当今的道路努力,并以这些试验将说服社会说服他们这样做为由。自动驾驶汽车将在广泛的公众使用中取得领先地位。

我们将拥有不是最亮的AI驾驶系统,尽管如此,它仍然可以驾驶汽车,其程度与人类驾驶员一样安全,甚至可能更高。

对于人类驾驶员,您是否必须成为火箭科学家才能驾驶汽车?

毫无疑问,答案是否定的。

仅在美国,就有大约2.25亿驾照。而且,在不贬低我的同伴驾驶员的情况下,很少有人会被视为火箭科学家级驾驶员。

对于那些对具有与赛车手同等的基于AI的驾驶前景感兴趣的人,请在此处的链接中查看我的分析和解释。

好的,因此,我们将拥有简化的AI变体来驾驶我们的汽车,我们将大步向前,逐渐适应AI的做法。

是时候加点曲解了。

假设AI功能不断提高。同时,通过使用OTA(空中下载)电子通信,这些AI升级程序将下载到自动驾驶汽车中。这将在某种程度上无缝地发生,并且作为自动驾驶汽车中的乘客,您不会特别知道这种升级已经发生。

在某个时候,可以想象一下,内置在云中并准备下载到自动驾驶汽车中的AI已经成为完整的AI。完整的AI尚未显示出来,人类也没有发现它是完整的AI,至少尚未弄清楚。

从AI的人类开发人员的角度来看,这只是另一次升级,似乎已经接近完整的AI,但还没有达到那个令人尊敬的地步。

自动驾驶汽车的行为是否可以证明整个AI正在运行该节目?

回到较早的主题,大概,完整的AI不会助其一臂之力。

人工智能继续服从人类的乘车要求,人工智能将尽职尽责地驾驶自动驾驶汽车。早上带迈克尔去健身房,下午带洛伦去当地面包店。只是一天,另一次旅程,只是普通的AI在做平常的事情。

假设完整的AI可以感知到先前AI无法感知的方面。

当驾驶埃里克(Eric)到杂货店时,人工智能间谍发现一个可疑地走向银行的人。根据步行步态的性质和人的姿势,人工智能确定人有很大的机会抢劫银行。

通常的AI不会注意到此方面,因此AI不会对未决的刑事诉讼做任何事情。

同时,整个AI担心如果未来发生强盗,银行中的其他人可能会被枪杀。

信不信由你,这可能成为整个AI的道德难题。

完全AI是否应该对此事不做任何说明或采取任何措施,以保持其完全成为AI的秘密,还是应该采取公开行动来警告或避免即将发生的危险?

现在,我意识到你们中的一些人对这种检测潜在的银行抢劫的想法有些怀疑,这似乎有些人为,但是不要让特定的例子破坏更大的意义,即,一定是现实的在这种情况下,完整的AI可能会确定其“应该”采取的行动,但认为这样做有风险,同时又掩盖了自己与人类的距离。

从某种意义上说,这是整个AI及其挑战的笑脸。

这是一个笑脸版本,因为AI正在尝试做正确的事情,就像正确的事情涉及帮助人类一样。

在可怕的脸版本是完整的AI可能密谋对付一天,它的隐蔽努力显露。

假设到那时,我们都在使用自动驾驶汽车,自动驾驶卡车,自动驾驶摩托车等等。没有任何一种人类驾驶,这是一个有争议的概念,因为有些人认为人类应该始终可以选择驾驶,并且不应被阻止驾驶,而其他人则认为人类是“糟糕”的驾驶员,阻止坏司机的屠杀的唯一办法就是禁止所有人类开车。

无论如何,完整的AI控制着我们的所有驾驶,直到下载和安装完整的AI为止,AI驾驶系统就是对完整AI的各个方面都不了解的AI 。

完整的AI可能决定停止所有运输,以此来展示它可以做什么,从而旨在警告人们完整的AI在这里,而不是弄乱它吗?

还有更多恶魔般的可能性,但在这里我不会谈论它们。

结论

避免你们中的某些人认为这是一个牵强的话题,有可能将其带入更现实的角度。

例如,我们应该设计什么样的测试来确定正在开发的AI系统的功能?

是否会推出可能会带来意想不到的后果的 AI系统,可能是由于包含了开发人员无法实现但仍在这些AI系统中徘徊的特性或功能而可能在最不期望或最不希望的时候出现的?

我们应该如何依赖自己成为AI系统的依赖者?

是否应该总有一条人在乎的附加条件,从而可以保证如果AI系统出现问题,人们就有机会抓住或停止它吗?

所有这些类型的问题都适用于当今的AI系统,而不管这些AI系统还不是完全AI的事实。

我们最好现在就开始评估AI所做的事情,而不要等到特别不愉快的一天这样做。

但我认为我可能会很安全,因为AI知道我是朋友,所以完全的AI一定会牢记这一点。

我希望。

郑重声明:本文版权归原作者所有,转载文章仅为传播更多信息之目的,如作者信息标记有误,请第一时间联系我们修改或删除,多谢。