AWS采用Nvidia的Tesla T4芯片进行AI推理

2019-06-18 13:16:20

亚马逊的AWS今天宣布推出采用Tesla T4 GPU的新EC2实例,并表示将在未来几周内通过G4实例向客户提供。T4也将通过适用于Kubernetes的Amazon Elastic Container服务提供。

“它将采用Nvidia T4处理器,专为机器学习而设计,并帮助我们的客户缩短在边缘进行推理所需的时间 - 响应时间真正重要 - 同时降低成本,”AWS计算副总裁马特加曼今天在圣何塞州立大学的主题演讲中表示。

新实例将能够在云中同时利用多达8个T4 GPU。

去年9月,Nvidia为数据中心推出了T4。Tesla T4采用图灵架构,包含2,560个CUDA内核和320个Tensor内核,处理查询的能力比CPU快近40倍。

自从Nvidia首次亮相GPU以来,它已经被整合到由Cisco,Dell EMC和Hewlett Packard Enterprise等公司运营的数据中心中。

上图:Nvidia T4

Nvidia还宣布推出用于自动驾驶的Constellation平台,用于自动驾驶汽车的安全力场,用于嵌入式设备的Jetson Nano计算机以及在新的伞形名称CUDA-X AI下重组40多个Nvidia深度学习加速库的普遍可用性。

CUDA-X AI库可与流行的框架(如MXNET,PyTorch和TensorFlow)配合使用。

今天也是如此:Nvidia的研究人员介绍了GauGAN,这是一个人工智能系统,训练有100万张Flickr照片,可以创建逼真的风景图像。