NVIDIA推出两款全新的Ampere Tensor Core GPU:用于数据中心的A10 24 GB GDDR6和A30 24 GB HBM2

2021-04-13 18:39:19    来源:新经网    作者:文静

除了所有CPU和GPU公告外,NVIDIA今天还发布了其全新的基于Ampere的A10和A30 Tensor Core GPU。这两个GPU面向数据中心,并且主要面向虚拟化平台。

NVIDIA推出两款全新的Ampere Tensor Core GPU:用于数据中心的A10 24 GB GDDR6和A30 24 GB HBM2

这些全新的Tensor Core GPU有趣的是它们的规格。A10使用GA102 GPU,而A30使用GA100 GPU。虽然这两个都是基于Ampere的,但两个GPU的内存子系统都将大不相同,因为提供GDDR6的A10和提供数据中心的标准HBM2内存标准的A30。因此,让我们详细了解一下规格。

NVIDIA A10 Tensor Core GPU由GA102-890 SKU驱动。它具有72个SM,共计9216个CUDA内核。GPU的基本时钟频率为885 MHz,最高可提升至1695 MHz。它具有PCIe Gen 4.0合规性,并且在内存方面具有24 GB GDDR6 VRAM,可在384位宽的总线接口上以12.5 Gbps的速度运行。GPU提供600 GB / s的带宽。

至于卡的设计,它使用了香槟金色外罩,采用单槽,全长尺寸。由于这是一个被动冷却卡,因此它上没有风扇,并且通过单个8针连接器提供电源,并且该卡通过单个8针连接器运行,从而满足其150W TDP需求。在性能方面,NVIDIA A10 Tensor Core GPU最多可提供31.2 TF FP32、62.5 TF TF32、125 TF BFLOAT16、250 TOPS INT8、500 TOPS INT4以及两倍的稀疏率。

NVIDIA A30 Ampere Tensor Core GPU

另一方面,NVIDIA A30 Tensor Core GPU使用GA100 SKU,但尚不知道确切的变种。这似乎是一个相当精简的变体,具有930 MHz的基本时钟和高达1440 MHz的升压时钟。GPU配备了24 GB的HBM2 VRAM,可在3072位宽的总线接口上以1215 MHz的速度运行。这意味着我们仅查看三个活动的HBM2存储器堆栈。堆栈可提供高达933 GB / s的内存带宽。

与A10不同,NVIDIA A30 Tensor Core GPU具有双插槽和全长设计。它也由单个8针连接器供电,但额定TDP更高,为165W。在性能方面,NVIDIA A30 Tensor Core GPU提供高达5.2 TF FP64、10.3 TF Peak FP64TF,10.3 TF FP32、82 TF TF32、165 TF BFLOAT16、330 TOPS INT8、661 TOPS INT4以及两倍的稀疏率。

NVIDIA Tensor Core Ampere GPU
  A10 A30
显卡 GA102-890 GA100
FP64 5.2兆
FP64张量核心 10.3兆
FP32 31.2兆 10.3兆
TF32张量核心 62.5 teraFLOPS |125 teraFLOPS * 82 teraFLOPS |165 teraFLOPS *
BFLOAT16张量核心 125 teraFLOPS |250 teraFLOPS * 165 teraFLOPS |330 teraFLOPS *
FP16张量核心 125 teraFLOPS |250 teraFLOPS * 165 teraFLOPS |330 teraFLOPS *
INT8张量核心 250 TOPS |500 TOPS * 330 TOPS |661 TOPS *
INT4张量核心 500 TOPS |1,000 TOPS * 661 TOPS |1321 TOPS *
RT核心 72个RT内核
编码/解码 1个编码器
2个解码器(+ AV1解码)
1个光流加速器(OFA)
1个JPEG解码器(NVJPEG)
4个视频解码器(NVDEC)
GPU内存 24GB GDDR6 24GB HBM2
GPU内存带宽 600GB /秒 933GB /秒
互连线 PCIe Gen4 64GB /秒 PCIe Gen4:64GB / s
第三代NVLINK:200GB / s **
外形尺寸 单槽全高全长(FHFL) 双插槽,全高,全长(FHFL)
最大散热设计功率(TDP) 150瓦 165瓦
多实例GPU(MIG) 4个GPU实例@每个6GB每个
2个GPU实例@每个12GB每个
1个GPU实例@ 24GB
vGPU软件支持 NVIDIA虚拟PC,NVIDIA虚拟应用程序,NVIDIA RTX虚拟
工作站,NVIDIA虚拟计算服务器
适用于VMware
NVIDIA Virtual Compute Server的NVIDIA AI Enterprise

浪潮支持A30,A10和A100的全新GPU服务器

超灵活的AI工作负载,支持2个Intel第三代Intel Xeon可扩展处理器和8个NVIDIA A100 / A40 / A30 GPU,16个NVIDIA A10 GPU或20个NVIDIA T4 GPU;在4U机箱中最多支持12个3.5英寸硬盘驱动器,用于大型本地存储;灵活适应最新的AI加速器和智能NIC,并具有一键式切换拓扑的独特功能,适用于各种AI应用程序,包括AI云,IVA(智能视频分析),视频处理等。

NF5468A5:

多功能AI服务器,具有2个AMD Rome / Milan CPU和8个NVIDIA A100 / A40 / A30 GPU;N + N冗余设计可在全速运行中使用8个350W AI加速器,从而具有出色的可靠性;CPU到GPU的非阻塞设计允许在不进行PCIe交换机通信的情况下进行互连,从而实现更快的计算效率。

NF5280M6:

专为所有场景而打造,在2U机箱中配备2个Intel第三代Intel Xeon可扩展处理器和4个NVIDIA A100 / A40 / A30 / A10 GPU或8个NVIDIA T4 Tensor Core GPU,能够在45°下长期稳定运行C。NF5280M6配备了最新的PFR / SGX技术和可信赖的安全模块设计,适用于要求苛刻的AI应用。

此外,浪潮还宣布了全新的浪潮M6 AI服务器,完全支持NVIDIA Bluefield-2 DPU。展望未来,浪潮计划将NVIDIA Bluefield-2 DPU集成到其下一代AI服务器中,这将为AI,大数据分析,云计算等场景提供更快,更高效的用户和集群管理以及互连的数据访问。和虚拟化。

可用性

全球计算机制造商现已提供20多个NVIDIA认证系统。具有NVIDIA A30和NVIDIA A10 GPU的NVIDIA认证系统将于今年晚些时候从制造商处上市。

NVIDIA AI Enterprise是永久许可,每个CPU插槽的价格为3,595美元。NVIDIA AI Enterprise的企业业务标准支持费用为每个许可每年899美元。客户可以在计划升级到VMware vSphere 7 Update 2时申请NVIDIA AI Enterprise的早期访问。

郑重声明:本文版权归原作者所有,转载文章仅为传播更多信息之目的,如作者信息标记有误,请第一时间联系我们修改或删除,多谢。