服务器 频道

采用Infiniband构建高性能计算平台

2.2. Infiniband发展趋势

    基于共享总线(Shared-Bus)的架构的诸多局限性决定了这项I/O技术已经不能适合日益庞大的计算机系统的I/O需求。这些局限性主要包括速率极限、可扩展性、单点故障等几个主要方面。而基于交换架构的Infiniband技术在避开PCI架构上述问题的同时,提供了其他方面的更高性能。基于Fabric与基于共享总线I/O技术之间的简要对比如下表所示。

1.Shared-Bus架构的局限性

    PCI-X 133的带宽只有2GB/s,虽然目前公布的PCI-E的带宽峰值到4GBps,但这没有从根本上缓解服务器端的I/O带宽瓶颈。同样,PCI架构(主要是PCI-X)的可扩展性也非常有限,它主要通过两种方式来实现:要么增加同层PCI总线(PCI本身就是一种层次结构I/O技术),要么增加PCI-to-PCI桥。前者主要通过在主板上集成额外的Host-to-PCI总线芯片以及增加PCI连接器来实现,而后者主要通过在主板上增加PCI-to-PCI桥接芯片来实现。无论采用什么方式扩展PCI架构的I/O总线,其代价都是比较昂贵的。
在基于共享总线的I/O结构中,所有通信共享单一总线带宽,由此就造成外设越多,可用带宽就越少,从而带来更严重的系统I/O瓶颈。不仅如此,在基于共享并行I/O总线上,大量的引脚数目也带来了一定的电气特性和机械特性等问题,使得PCB空间、信号频率以及信号可传输距离都受到很大程度的制约。

2.Switched Fabric体系结构的高可扩性

    Infiniband所采用的交换结构(Switched Fabric)是一种面向系统故障容忍性和可扩展性的基于交换的点到点互联结构。这种结构如下图所示。



    在上图中,通过向Infiniband系统添加交换机可以很容易地实现I/O系统的扩展,进而允许更多的终端设备接入到I/O系统。与基于共享总线的I/O系统相反,这种Switched Fabric系统的总体带宽会随着所接入交换设备数目的增加而不断提高。另外,正如上图所指出的那样,通过在Infiniband子结构之间添加路由设备,可以更大范围地扩充整个Infiniband系统。

    Infiniband技术是一种开放标准的、目前全球带宽最高的高速网络互联技术,Infiniband产品是目前主流的高性能计算机互连设备之一。目前基于Infiniband技术的网络卡的单端口带宽最大可达到20Gbps,基于Infiniband的交换机的单端口带宽最大可达60Gbps,单交换机芯片可以支持达480Gbit每秒的带宽。到2006年,Infiniband技术可以达到单端口120Gbps,其单端口的带宽甚至远高于目前的主流交换机的总带宽,可以为目前和未来对于网络带宽要求非常苛刻的应用提供了可靠的解决方案。

    Infiniband技术是采用RDMA传输机制实现了低延迟,高带宽的新型网络标准,并得到了行业中所有领军企业的支持;部分服务器厂家已经或计划将Infiniband芯片移植到主板上。

    Infiniband 架构的这种快速增长主要得益于越来越多的企业级数据中心的建立部署和持续发展的高性能计算的应用。

2004年1月,IBM开始将Infiniband技术应用于其解决方案;
2004年1月,SUN 开始推出Infiniband解决方案;
2004年2月,HP的Infiniband 产品在市场上出现;
2004年2月,Dell 开始推出Infiniband解决方案;
2004年5月,SKY Computer 的嵌入式Infiniband方案被用于军事和工业应用;
2004年6月,NEC开始应用Infiniband到NEC刀片式服务器;
2004年6月,SBS 公司率先宣布推出基于VXWorks的 InfninBand 驱动;
2004年, HP和 Oracle多次刷新TPCH性能测试纪录;
2004年11月,在美国国家航空和宇宙航行局(NCSA),SGI完成了基于Infiniband互联技术的超级计算机,其运算速度位居世界第二。
2005年4月,Cisco 公司宣布收购 Infiniband 方案提供商-Topspin, 成为 Infiniband 产品的最大用户。

    除此之外,Apple、Hitachi、Fujitsu等厂商也都已推出了基于Infiniband的解决方案;Engenio、NetApp、DataDirect、Engenio、Isilon、Terrascale和CFS等存储厂商也已推出或即将推出基于Infiniband技术的存储解决方案;Arima,、Iwill,、SuperMicro和Tyan等服务器主机板厂商也陆续推出了基于Infiniband芯片的LOM(Landed on Mainboard)方案。

    而基于Infiniband技术的芯片、网卡和交换机主要供应商Mellanox公司已取得里程碑式的销售成绩----50万个 Infiniband 端口,这些端口体现在多种产品形式上,包括:集群服务器、高带宽交换机、嵌入式平台和集群存储系统。

    “因为 Infiniband 有着较好的扩展性与性能,由许多公司包括Mellanox在内所生产的10Gb/s适配卡,会帮助用户压低集群中每个节点的成本,”英特尔 数字企业集团行销主管 Jim Pappas 说道:“ Infiniband 产品种类的增多对应用于商业和科学计算领域的 10Gb/s 带宽计算机集群的发展有着积极的影响。”另外,InfiniHost III Lx HCA 卡把这种高性能通讯技术同时打入了高速存储和嵌入式应用这两个市场。

    由此可见,Infiniband的整体解决方案已经成形,这个整体解决方案的出现,必将带来高性能计算平台和数据中心的一次变革,让长期以来一直高高在上的高性能解决方案变得大众化。

0
相关文章