服务器 频道

集群服务器时代 InfiniBand成主流

2)TOP101-500:通用集群

    跟TOP100不同,TOP101-500之间的400套系统绝大多数是集群(355套,近90%),只有44套系统采用MPP。

    这一部分较低端的系统已经成为集群的天下,代表了通用集群计算的市场,既有HPC应用,也有EDC应用。而且,即便是用于HPC领域,其应用范围也扩展了很多,不只是针对某个单一的应用,它们中很多系统只是在测试Linpack时充当了一回“临时超级计算机”的角色。在互连方面,InfiniBand和千兆以太网占据了近90%的系统份额(347套)。在未来几年里,对于这些中低端系统,集群架构和标准互连技术仍然会继续流行,因为这一架构能够提供足够好的灵活扩展性,而且比其他架构具备更好的性价比。

    通过分析这355套集群系统的应用领域,我们发现,有40%是用于HPC,如教育、科学研究等,另外60%都是用于EDC领域。在HPC集群中,有45%使用了InfiniBand,另外55%使用了千兆以太网。由于在多核CPU和服务器整合等技术趋势的推动下,InfiniBand取得了比较稳定的增长。而在EDC集群中,千兆以太网的份额高达85%,另外15%采用的是InfiniBand。由于许多EDC系统都是那种为了测试Linpack组建起来的“临时性的超级计算机”,而平时主要用作独立的工作站,所以对高速互连的需求不象HPC集群那么强烈。

    基于千兆以太网的EDC系统的平均效率(实际利用性能与理论可用性能的比值)为50%左右,而基于InfiniBand的系统的效率要高一些,达到70%。这也能说明这些系统是被当作小规模集群或者独立工作站来使用的。要知道,低效率意味着计算能力的大量浪费,以及高昂的维护成本(较低的性价比和较低的性能功耗比),这是超级计算机所无法容忍的。而且,考虑到EDC市场对新技术的接受速度本身就比较慢,因此不象HPC系统那样大量使用InfiniBand,这也是可以理解的。

    就基于InfiniBand的系统来说,其中70%是HPC,30%是EDC,这跟千兆以太网的方案正好相反——后者30%是HPC,70%是EDC。尽管HPC和EDC都共同采用了一些关键的新技术如多核CPU、集群架构,但对虚拟化只适用于EDC。

    虚拟化的目标是通过在同一个物理系统上并行地运行多个应用来提高系统的利用率。而绝大多数HPC都用不上虚拟化,因为它们已经能够充分地利用系统的计算资源。在EDC领域,情况却截然相反——虚拟化成为了一项关键的技术趋势。而随着虚拟化的普及,对系统I/O的要求也会越来越高。这也就需要互连网络能够提供更高的带宽。因此,不难预测,在未来TOP500排行榜中,更多的EDC系统会采用性能更高的InfiniBand。

    跟TOP100中的情况一样,在这些低端系统中,也很难看到万兆以太网的身影,其原因是一致的。因为,在性价比方面,万兆以太网比不过InfiniBand和千兆以太网,而在性能、带宽方面,也比不过InfiniBand,难以满足虚拟化系统对I/O吞吐量的需求。40Gb/s的 InfiniBand 已经出现,随着InfiniBand在EDC市场中的流行,这一技术不仅对集群环境,而且对虚拟化环境都是非常关键的。另外,随着功耗因素在系统设计过程中越来越重要,性能功耗比和性能价格比一样会成为关键的衡量指标,而InfiniBand正好能够在低功耗水平下实现高吞吐能力,这一点也会促进InfiniBand的普及。

0
相关文章