未来的人工智能芯片很可能与我们电脑和服务器上几十年来的经典CPU大不相同

2019-09-24 17:19:06    来源:人工智能网    作者:

随着社会转向用人工智能来解决越来越多领域的问题,我们看到了一场军备竞赛:即创造出能够以更高速度和更低功耗运行深度学习模型的专用硬件。

这场竞赛的最新突破包括新的芯片架构,它以一种与我们以前看到的完全不同的方式执行计算。通过观察它们的功能,我们可以了解到未来几年可能出现的人工智能应用。

神经形态芯片

神经网络是深度学习的关键,它由成千上万个小程序组成,这些小程序通过进行简单的计算来执行复杂的任务,如检测图像中的物体或将语音转换成文本。

但是传统的计算机并没有对神经网络操作进行优化。相反,它们由一个或几个强大的中央处理器(CPU)组成。神经形态计算机使用另一种芯片结构来物理地表示神经网络。神经形态芯片是由许多物理人工神经元组成的,这些神经元直接与软件对应。这使得他们在训练和运行神经网络方面特别快。

神经形态计算的概念早在20世纪80年代就已经存在,但由于神经网络的效率太低而被忽略,因此没有引起太多关注。近年来,随着人们对深度学习和神经网络的兴趣重燃,神经形态芯片的研究也受到了新的关注。

今年7月,一组中国研究人员推出了一种名为“天启”的神经形态芯片,它可以解决很多问题,包括目标检测、导航和语音识别。研究人员将该芯片集成到一辆自动驾驶自行车中,让它对语音指令做出反应,从而展示了芯片的功能。研究人员在《自然》杂志上发表的一篇论文中指出,预计我们的研究将为更通用的硬件平台铺平道路,从而刺激AGI(人工一般智能)的发展。

虽然没有直接证据表明神经形态芯片是创造人工智能的正确途径,但它们肯定会帮助创造更高效的人工智能硬件。

神经形态芯片已经吸引了大量科技企业的目光。今年早些时候,英特尔推出Pohoiki Beach,多达64颗英特尔Loihi神经形态芯片,能够模拟800万个人工神经元。据英特尔称,Loihi处理信息的速度比传统处理器快1000倍,效率比传统处理器高10000倍。

光学计算

神经网络和深度学习计算需要大量的计算资源和电力。人工智能的碳足迹已经成为一个环境问题。神经网络的能源消耗也限制了它们在电力有限的环境中的应用,比如电池供电的设备。

随着摩尔定律继续放缓,传统的电子芯片正努力跟上人工智能行业日益增长的需求。

几家公司和研究实验室已转向光学计算,以寻求解决人工智能行业的速度和电力挑战的方案。光学计算用光子代替电子,用光学信号代替数字电子来进行计算。

光学计算设备不像铜电缆那样产生热量,这大大降低了它们的能源消耗。光学计算机也特别适用于快速矩阵乘法,这是神经网络中的关键运算之一。

在过去的几个月里,出现了几款光学人工智能芯片的原型机。总部位于波士顿的Lightelligence开发了一种光学人工智能加速器,该加速器与当前的电子硬件兼容,通过优化一些繁重的神经网络计算,可以将人工智能模型的性能提高一到两个数量级。Lightelligence工程师表示,光学计算的进步还将降低人工智能芯片的制造成本。

最近,香港科技大学的一组研究人员开发了一种全光神经网络。目前,研究人员已经开发了一个概念验证模型,模拟一个具有16个输入和2个输出的完全连接的双层神经网络。大规模的光学神经网络可以以光速和较低的能耗运行从图像识别到科学研究等计算密集型应用。

超大芯片

今年8月,硅谷初创企业Cerebras Systems推出了一款包含1.2万亿晶体管的大型人工智能芯片。大小为42225平方毫米,Cerebras芯片比最大的英伟达图形处理器大50多倍。

大型芯片加快了数据处理速度,能够以更快的速度训练人工智能模型。与GPU和传统CPU相比,Cerebras独特的结构也降低了能耗。

当然,芯片的尺寸将限制其在有限空间的环境下的使用。Cerebras最近与美国能源部签订了第一份合同。美国能源部将利用该芯片加速科学、工程和健康领域的深度学习研究。

考虑到各种各样的行业和领域都在寻找用于深度学习的应用程序,单一架构几乎不可能主导市场。但可以肯定的是,未来的人工智能芯片很可能与我们电脑和服务器上几十年来的经典CPU大不相同。

郑重声明:本文版权归原作者所有,转载文章仅为传播更多信息之目的,如作者信息标记有误,请第一时间联系我们修改或删除,多谢。