【IT168 资讯】一些主要的服务器厂商纷纷排在Nvidia的Tesla V100 GPU加速器之后,预计他们的这些行动将使人工智能和机器学习工作负载更具备主流地位。
戴尔EMC、HPE、IBM和超微都在Nvidia最新的GPU加速器上概述了服务器,这些服务器基于图形芯片制造商的Volta架构。 Nvidia的V100 GPU每GPU具有超过120 兆的深度学习性能。这种吞吐量有效地限制了AI工作负载的速度。
IBM的认知系统开发部副总裁Brad McCredie在一篇博客文章中指出,具有V100以及NVLINK PCI-Express 4和高速缓存一致性技术的Nvidia为AI的优化系统带来了前所未有的内部带宽。
基于V100的系统包括:
IBM 的Power Systems S822LC服务器使用了两个IBM Power8 CPU和4个NVIDIA Tesla P100 GPU。Power8是目前IBM最强的CPU。而IBM将在今年晚些时候推出基于Power 9的系统。具有Power 9处理器的IBM Power系统将支持多个V100 GPU。
▲IBM Power Systems S822LC
目前华为的FusionServer G系列包含两款机型,分别为G5500与G2500,而二者均将被主要用于构建华为公司的智能云硬件平台Atlas。其中G5500专注于数据中心部署,在其4U机箱内能够容纳8块Tesla P100 GPU加速器,并能够与即将推出的 Tesla V100兼容。华为公司表示其能够"在数毫秒内,轻松地处理数千亿条数据记录"。
▲右边是G2500,左边是G5500
浪潮NVIDIA联合发布的超高密度服务器浪潮AGX-2,是全球首款在2U空间内高速互联集成的8颗最高性能GPU加速器的服务器。AGX-2在2U空间内支持部署8块NVLink或PCI-E 接口的NVIDIA Tesla P100 GPU,并在业界率先支持NVLink 2.0和最新发布的NVIDIA Tesla V100,GPU间互联带宽高达150GB/s。
▲浪潮AGX-2
戴尔EMC的PowerEdge R740,支持多达三个V100 GPU,用于PCIe和两个高端系统以及R740XD和C4130。它是一款针对工作负载加速进行了优化的通用服务器。凭借其多功能性,R740可实现数据中心转型,顺应VDI、人工智能和软件定义存储(SDS)的发展趋势。
▲戴尔EMC的PowerEdge R740
联想的SD530可运行最高内核的英特尔至强铂金处理器,为要求最为严苛的HPC/AI工作负载提供支持。创新的D2机箱可容纳可选的1U托架,每个节点支持2个GPU或加速器,其内存和存储技术增强功能可在任何环境下实现卓越的性能和灵活性。在单个行业标准42U机架内可安装76台服务器:最多152个处理器、77.8TB内存以及3.6TB存储。
▲联想的SD530
HPE的Apollo 65000,支持多达 8 个 300 瓦 GPU 或协处理器,具有更高性能。针对为加速器之间的高速端对端通信进行优化的工作负载,在一个高速 PCIe 交换机上安置 4 个 GPU,针对每个 CPU 安置 2 排,即每个 CPU 配 8 个 GPU。而针对需要更高 CPU 到 GPU 通信的工作负载,可以选择每个 CPU 4 个 GPU 的配置。
▲HPE的Apollo 65000
超微还拥有一系列使用V100构建的工作站和服务器。比如:SuperServer 4028GR-TR支持8个NVIDIA Tesla V100 SXM2 GPU加速器(具有最大GPU到GPU带宽,支持重要的高性能计算(HPC)集群和超大型工作负载)。该系统整合最新NVIDIA NVLink GPU互连技术与超过PCI-E 3.0五倍的带宽,采用独立的GPU和CPU热量分区设计,确保在最严苛的工作负载下性能和稳定性也不受影响。
▲SuperServer 4028GR-TR
NVIDIA Tesla V100 无疑是目前世界上非常先进的数据中心 GPU,专门用于处理需要强大计算能力支持的密集型 HPC、AI、和图形处理任务,怪不得各大厂商都要赶赶这潮流了。