【IT168评测中心】在上一次的数据库测试中, 我们在配置并不怎么好的情况下进行了测试。我们的样机DELL PE M910盒配套的DELL PE M1000e刀片机架上尽管提供了4个千兆网络端口,然而被机架分配到了两个交换机模块上,每个交换机模块只能连接M910的两个网络端口,这可能会导致瓶颈,因为作为对比的机器都是基于四个网络端口。
四路Nehalem-EX刀片服务器:DELL PowerEdge M910
经过联系,DELL很快送来了将M1000e上的两个M6220四口千兆交换机模块堆叠成为一个八口千兆交换机的线缆,此外,我们也进行了另外的数据库系统性能测试,试图发掘M910的所有性能。
设备是升级到3个模块的Cisco Catalyst 4506千兆交换机,一共提供120个千兆网络端口,还新购买了30台DELL PowerEdge T100服务器,配合原有的30台DELL PowerEdge SC430服务器以及30台PC作为网络测试的客户端,可以提供非常充足的测试压力。
网络实验室控制台
网络实验室机房
Cisco Catalyst 4506千兆交换机,120个千兆铜口
部分Dell PowerEdge SC430服务器
同时,我们也对数据库服务器的测试环境进行了改进:
Benchmark Factory for Databases 5.7.1g
我们选择了Benchmark Factory for Databases 5.7.1g软件来进行测试,它是我们之前使用的4.6的升级版本。
我们选择了BF内置的标准测试脚本AS3AP,这项测试可用于对于ANSI结构化查询语言(SQL)关系型数据库进行测试,它可用于测试DBMS(单用户微机数据库管理系统),也可用于测试高性能并行或者分布式数据库。关系性数据库就是用二维表格结构来表示实体及实体之间联系模型的数据库形式。
BF通过一台独立的控制台控制我们的60台服务器充当的客户端产生数据库测试压力,由于客户端所有的资源都用来产生数据库操作,因此可以给服务器施加相当大的测试压力。
Benchmark Factory 运行报告
我们选择了BF内置的标准测试脚本AS3AP,这项测试可用于对于ANSI结构化查询语言(SQL)关系型数据库进行测试,它可用于测试DBMS(单用户微机数据库管理系统),也可用于测试高性能并行或者分布式数据库。关系性数据库就是用二维表格结构来表示实体及实体之间联系模型的数据库形式。
最使用的是SQL Server 2005 x64
测试平台、测试环境 | ||||
测试分组 | ||||
类别 | 四路Intel Nehalem-EX Xeon E7540 | |||
处理器子系统 | ||||
处理器 | 四路Intel Xeon E7540 | |||
处理器架构 | Intel 45nm Nehalem-EX | |||
处理器代号 | Beckton (Nehalem-EX) | |||
处理器封装 | Socket 1567 LGA | |||
处理器规格 | 六核 | |||
处理器指令集 | MMX,SSE,SSE2,SSE3,SSSE3, SSE4.1,SSE4.2,EM64T,VT | |||
主频 | 2.0GHz | |||
Turbo Boost主频 (多核) | 2.00GHz(+0MHz) | |||
Turbo Boost 主频 (单/双核) | 2.26GHz(+266MHz) | |||
处理器外部总线 | 4x QPI 3200MHz 6.40GT/s 单向12.8GB/s(每QPI) 双向25.6GB/s(每QPI) | |||
L1 D-Cache | 6x 32KB 8路集合关联 | |||
L1 I-Cache | 6x 32KB 4路集合关联 | |||
L2 Cache | 6x 256KB 8路集合关联 | |||
L3 Cache | 18MB 24路集合关联 | |||
主板 | ||||
主板型号 | DELL PE M910 | |||
芯片组 | Intel Boxboro IOH:Intel 7500(Boxboro) ICH:Intel 82801JR(ICH10R) | |||
芯片特性 | 2x QPI 36 PCI Express Gen2 Lanes VT-d Gen 2 | |||
内存控制器 | 每CPU集成两个SMI 主板实现一个SMI 每SMI两个SMB 四通道R-ECC DDR3 1066 | |||
内存 | 4GB R-ECC DDR3 1066 SDRAM x16 | |||
网络子系统 | ||||
网卡 | Broadcom BCM5709S Dual Port GbE x2 8x RSS Queue MSI | |||
软件环境 | ||||
操作系统 | Microsoft Windows Server 2008 R2 Datacenter Edition |
如何将分到两个不同的交换机上的四个网口聚合起来了?首先是通过堆叠,让两个交换机变成一个,其次是使用Broadcom的网络配置工具,将四个网口进行端口汇聚(使用Broadcom的智能负载均衡模式)。所谓的堆叠,就是通过两条线缆将M910的M6220模块联成一个环路,在两个交换机模块的情况下,我们使用了两条3米的线缆。
解读:w/HTT的意思是with HTT,也就是“在超线程状态下”,w/o HTT意思是without HTT,也就是“不在超线程状态下”,TB则是Turbo Boost睿频技术,4P24C48T指的是4处理器(Processors)、24核心(Cores)、48线程(Threads)。依此类推。GbE是Gigabit Ethernet(千兆以太网),4 GbE Ports表示使用了4个千兆端口。
从数量级上看,重新进行的两个测试(2 GbE Ports-SQL2008和4 GbE Ports-SQL2005)都没能带来什么不同。不过,在细节上,还是可以看出一些差异来,首先是同为两个千兆网络端口,SQL2008下的峰值TPS低一些,不过没有SQL2005时在400虚拟用户时出现的低谷,显得更为平滑、稳定。而四个千兆网络端口的配置则是全面超过了其他两种配置,并且性能非常稳定(12万Tps左右),我们分析的结果是,它显示了网络子系统可能存在的瓶颈。
Nehalem-EX/DELL PE M910使用的两个Broadcom网络芯片,型号BCM5709S(之前的5709C是笔误……),是个支持8个RSS队列的双口千兆网卡,8个RSS队列是指,在工作的时候它可以将负载分配到最多8个物理处理器核心上,对于具有24个物理处理器核心的M910来说,显得不是很足够。这个瓶颈也有可能出现在交换机上。
*对于路过的专家来说,需要注意的是RSS负载分配和MSI/MSI-X负载分配并不是一回事
【IT168评测中心】我们继续测试了多种配置下的Nehalem-EX/DELL PowerEdge M910平台的数据库服务器性能,我们的结论是,四个千兆网络端口仍然不是很足够,对于四路至强7500来说。或许,万兆网络是其最适合的拍档。