服务器 频道

GPU携手CPU 成就世上最快1U服务器

 【IT168 专稿】直到不久前,要想获得一套使用GPU技术加速的集群系统,现实的办法是从NVIDIA公司买一台S1070 Tesla服务器,然后从某一家服务器厂商那买台基于X86 CPU的服务器,然后把两者组合在一起。在5月份以前,这个工作是需要用户自己来完成的。

    不过,5月4日,NVIDIA公司推出了所谓的“预先配置集群计划”,由OEM厂商来构建这些CPU-GPU混合型的集群服务器,用户只需要直接从OEM厂商那直接购买就可以了。

    现在,NVIDIA又开始引入市场一款新的Tesla GPU计算单元——M1060,据称是专门为融入到传统CPU服务器中进行设计的。借助这个新产品,NVIDIA希望能够通过更传统、用户已经习惯多年的模式,来扩大GPU在高性能计算市场上的份额,方便用户构建大规模、易扩展的HPC系统。

    M1060模块包含一个1.3 GHz的Tesla 10系列GPU,与工作站用C1060里使用的GPU一样。可别小看它的主频只有1.3GHz,但却拥有240个流处理内核,单精度浮点性能高达每秒9330亿次浮点计算,不过双精度性能还只有780亿次。 该模块中还包括4GB DDR3内存,访问速度高达102GB/秒。

    超微将是第一个推出这种CPU-GPU集成型服务器的厂商。在本周于台湾举行的Computex展会上,该公司正式推出了它的全新SS6016T-GF,一款带有2块Tesla GPU模块和2颗四核至强5500 CPU的1U机架式服务器。这款服务器可以实现每秒2万亿次单精度浮点运算性能。根据NVIDIA公司负责Tesla业务的主管Andy Walsh,将2块GPU封装在一起,使得超微的这款产品成为当前“世界上最快的1U服务器。” Walsh还表示,虽然目前只有超微推出了CPU-GPU服务器,但已经有其他多家厂商正在计划今年下半年推出这类新产品。

    尽管这种产品在性能上和分开来购买的没有太大的差别,但好处是由于集成在了一台机器里,无论是部署还是管理起来,都相对容易不少,比如不再需要额外的线缆来把CPU服务器和GPU服务器连接在一起,每个GPU模块都是通过系统内部的PCIe 2.0 x16接口相连。而且,同处一个机箱里,服务器的管理软件也能够管理监控到这些GPU组件。

    在超微的SS6016T-GF中,两块GPU分布于机箱的两侧,其中一块面朝上,另一块则是底朝上,这样布局的好处是可以让热量分布更均衡,容易散热。其中M1060采用的是被动散热方式,带有散热片,与其他系统部件一起散热共享机箱里的8个反转式风扇。超微也提供另一种型号,采用Tesla C1060取代M1060,这两种的最大不同在于C1060本身自带一个主动式风扇,其他技术规格都一样。从电耗情况来看,这两个产品都需要大量的电力供应,超微为此配备了一个高达1400W的电源。

    目前,关于这些产品的定价信息超微还没有正式公布。不过,据超微的一个欧洲分销商波士顿公司透露,C1060版本的服务器售价为8277美元,折合人民币近6万块。

    据了解,NVIDIA推出这种CPU-GPU集成型服务器的目的是为了将GPU推广到最大的超级计算机系统中去。从早期的GPU加速工作站、到异构型CPU/GPU集群,再到现在基于单块集成电路的CPU-GPU服务器,NVIDIA正一步步地向HPC的殿堂挺进。
 

0
相关文章