服务器 频道

智能互联解放CPU 技术下移开启新纪元

     【IT168 专稿】据统计,目前全球数据中心有超过3000万台服务器,而未来十年内这一数字预计会增长4倍,也因此未来数据中心将面对更高的计算需求,更急迫的互联压力。Mellanox公司是一家致力于为数据中心提供高性能计算、存储和云服务解决方案的知名企业。截止2009年12月,Mellanox已经成功为全球数据中心交付了超过500万个互联端口,并协助5个超级计算机跻身Top 500前十名,而Top500中的前100名里也有63台采用了Mellanox公司的互联方案。

    近日,Mellanox公司高级技术总监Gilad Shainer先生访华,对Mellanox公司独有的产品和技术做了讲解,并介绍了多个成功案例。据他介绍,目前全球范围内的数据中心面临着各种制约,如效能、成本、机房扩建等。而这其中最重要的是运维成本的问题:现今的数据中心机房,每投入1美元在采购和建设上,就会产生超过8美元的成本。此外,受制于经济危机和能源紧缺,目前数据中心的冷却费用和电费相比2000年,也上升了接近1倍。


Mellanox公司高级技术总监Gilad Shainer先生

    “以上只是环境因素,在数据中心内部,由于互联和程序效率等影响造成的CPU计算性能浪费是非常惊人的。”Shainer先生表示,“超过一半的CPU时间浪费在非应用部分,效率低的惊人。”Mellanox通过研究,发现随着数据中心规模的扩大,互联上带来的延迟极大的占用了处理器时间。

    “Mellanox之所以专注于HPC,是因为很多在高性能计算领域研发和实践成熟的技术,都可以下移到企业数据中心、存储互联领域,改进其互联效率。”Shainer先生表示,“而高性能计算互联中最重要的是数据能及时传递——你难以想象在高速计算中数据产生哪怕是一毫秒的延迟,影响会放大很多倍。”因此,Mellanox拥有完整的端到端数据传输方案,并且拥有全球最低的端口延迟速度,领先竞争对手25%~50%。“我们可以把单一机箱的交换容量做到2.88Tb/s,甚至是51.8Tb/s的极限容量——其互连速率的提升几乎是线性的。”

   用智能互联解放CPU  虚拟化协议互联打造云I/O

    Mellanox的产品拥有高带宽/低延迟的特点,性能普遍比竞争对手高出25%~50%左右;此外,由于支持Transport Offload技术,可以允许处理器在计算完自身任务后自动进行下一个运算,而不必等待其他处理器的回馈,把这一等待网络响应的工作交给了网络设备。此外,Mellanox的可扩展方案还支持网络自适应和避免拥塞的智能机制,配合其Core-Direct技术可以再多种网络拓扑环境中保证网络传输的可靠性。

    据了解,Mellanox的互联芯片支持包括Linux、UNIX、Windows在内的多种操作系统和虚拟化系统。“Mellanox的网络芯片不单支持多种操作系统,还支持多种网络模式。”Gilad Shainer先生介绍表示,Mellanox的网络芯片可以自由的根据网络种类选择工作模式——支持包括Infiniband、Ethernet、FCoE、FCoIB等网络的自动识别。

    云计算如火如荼的影响着全世界的IT企业对其数据中心进行着改造,而虚拟化技术作为云计算的基础已经渗透到各个领域。Shainer先生提到了虚拟协议互联技术(VPI),并介绍了其针对即时服务打造的云I/O(见下图)。可以看到,整个解决方案的拓扑结构是以Mellanox互联方案为核心展开的,即由Infiniband网络连接起内部存储、网络、集群和管理,使得外部以太网应用、仿真、数据库和管理能在无视内部传输冲突和瓶颈的情况下随时接入——Infiniband的灵活性体现出来,40Gb/s的高带宽使得云I/O拥有充分的网络资源可以灵活调配。

    Infiniband从性能到成本均超万兆以太网

    以目前万兆以太网的成本来看,Infiniband要远远便宜的多。Shainer先生表示,以前一些厂商会由于“历史遗留问题”,继承和继续拓展使用以太网。而自2009年经济不景气以来,更多厂商的数据中心开始选择Infiniband,原因有两点:更便宜、更快。此外,由于万兆以太网将很多封包和传输工作放在CPU中进行,因而占用了相当一部分CPU的工作负荷,Mellanox的Infiniband则将这些工作都移进网络芯片中解决——从而解放了CPU,将更多计算性能释放给用户。

    下图可以看到,世界超级计算机Top10中的五个超级计算机采用了Infiniband网络方案,分别是“走鹃”,“NASA”,“天河一号”,“TACC”和“红天”。

    从企业级应用来看,Oracle在其和SUN共同开发的数据库服务器中选择了Infiniband,并在网站公布了性能提升的数据——其性能相比以往的网络互联模式提升了接近10倍。而在另一家基于Web的旅游交易网站的案例中,采用了Infiniband的数据中心,达到了4:1的整合效率,其总体成本从74.4万美元降低到34万美元。“我们为客户在3年内节省了约57万美元的成本开支。”Giad Shainer表示,“对于中小企业来说这是一笔可观的数字。”

    谈到与合作伙伴的共同研发,Gilad表示:“AMD两周前发布了12核皓龙“马尼库尔”处理器,而Mellanox早在3个月之前就已经针对12核CPU做出相应的网络互连方案,将多核效率发挥到极致。”此外,Gilad透露:HPC高性能计算委员会和中科院计算所合作将于近期在中国开设办事处,届时将会和更多国内的厂商展开合作。

0
相关文章