Google研究人员探索确保未来AI系统安全的方法

2019-10-23 10:09:05    来源:    作者:

对未来人工智能系统出现问题的担忧已引起Google研究人员的关注。在公司的DeepMind小组宣布与牛津大学的研究人员合作开发无赖AI系统的杀伤开关后不到两周,谷歌发布了一份致力于解决AI安全风险的技术论文。

这篇名为“人工智能安全的具体问题”的论文是与斯坦福大学,加利福尼亚大学,伯克利分校和致力于人工智能研究的非营利性公司OpenAI的研究人员合作撰写的。

它概述了研究人员说在当今相对较小的五个基本问题,但随着机器在未来变得越来越智能,预测将具有更大的重要性。

谷歌研究员克里斯·奥拉赫(Chris Olah)在该公司的研究博客上说,本文探索了解决这些问题并确保将AI系统设计为以可靠且安全的方式运行的实用方法。

Olah说:“虽然可能的AI安全风险已经引起了公众的广泛关注,但大多数先前的讨论都是非常假设性和推测性的。” 他说:“我们认为,在真正的机器学习研究中关注问题并开始为工程AI系统开发实用方法至关重要。”

机器学习和人工智能是Google的重要领域。该公司表示,希望利用这些领域的进步来改善其核心技术。它已经在某些应用程序中应用了AI和机器智能技术,包括Google Translate,Google Photos和语音搜索。

公司首席执行官Sundar Pichai 表示,Google希望看到AI能够从根本上改变人们的出行方式,完成日常任务并解决医疗保健和气候变化等领域的问题。

OpenAI研究人员Paul Christiano和Greg Brockman在博客文章中指出,先进的AI意味着使AI系统更智能,更安全,并在新发布的技术论文中宣布了公司的作用。研究人员说,这意味着“确保AI系统能够完成人们真正希望他们做的事情”。

新发布的Google技术论文研究的五个问题之一是确保AI系统在执行功能时不会对环境造成负面影响的一种方法。例如,Olah指出要对清洁机器人进行编程,使其不要敲倒花瓶,即使这样做可以更快地完成任务。

其他问题涉及找出确保机器人不会从事具有负面影响的活动的方法,例如将湿拖把插入电源插座,或者以适当安全的方式在不同的环境(例如车间或办公室)中运行。

OpenAI的克里斯蒂安诺和布罗克曼说:“许多问题并不是新问题,但是本文是在尖端系统的背景下进行探讨的。”

这份新的技术论文似乎是对解决AI安全相关问题日益加深关注的一部分。例如,谷歌与牛津大学的研究专注于确保未来的超智能AI系统永远不会主动阻止操作员的干扰。目的是确保工程师能够以一种不稳定或不安全的方式开始安全关闭AI系统。

郑重声明:本文版权归原作者所有,转载文章仅为传播更多信息之目的,如作者信息标记有误,请第一时间联系我们修改或删除,多谢。