【IT168 专稿】在文章的开头,我们先来看一组公开报道的数据,Google当前所拥有的计算机服务器超过了45万台,而微软的服务器总数则为20万台,并且估计到2011年,这个数字将会变成80万台。雅虎,盛大游戏,腾讯等公司,中国电信,联通包括网通等公司和服务器保有量也非常巨大。从非互联网公司来看,中石化拥有大中小服务器和工作站1300多台;上海通用汽车的各类服务器超过400台,黑龙江省电子政务系统拥有百余台服务器……而一家银行、一个证券机构业务网络所部署的服务器,其量级就不只是百台、千台了。而这一数量还在急速增长。
![]() |
而目前单一的IBM p5-575服务器机柜就要消耗41.6千瓦的功率,即每平方英尺5千瓦,这远远高于工业标准所规定的每平方英尺50~100瓦的值。据统计,数据中心的电力消耗以每年15%~20%的速度在增长。对于如此之多的服务器,同时考虑到大多数服务器都是作为24小时运行的设备来设置,如果认真的计算一下他们的耗电费用,将是非常的惊人。
同时,对系统进行冷却已经成为数据中心面临的一个问题,所需要的能耗已经直逼系统能耗。研究表明,系统每消耗1千瓦电能,就需要四分之三千瓦电能对系统进行冷却。
当前,共同建设节约型社会已成为各国的共识,服务器用户也开始考虑整个计算系统的TCO,并已经逐渐意识到服务器的能耗在整体的TCO中占的比重会随运行时间的增加而逐渐加大。据调查结果显示,节能型计算产品的应用成为未来企业信息化建设的又一趋势,目前已经有10.92%的企业明确表示将在下一步建设中采用节能型计算产品,还有62.19%的企业表示未来将考虑应用,综合二者,有70%以上的企业表示出对节能型计算产品的偏爱。
那么,节能服务器又是怎样“炼”出来的呢?服务器的节能设计会从哪些方面展开呢?
服务器节能有术
目前,服务器厂商面临的问题是如何要不断的提高服务器计算能力而要减少服务器的能耗。服务器厂商和芯片巨头们也开始进行大量的研究并开始执行一些新的技术以降低服务器的能耗,主要有三个方向:冷却技术、芯片节能技术、软件调度和管理技术。
当然,也有厂商采用低功耗的CPU作为服务器部件,来实现服务器产品的节能,这种做法是以降低系统性能或者增加成本为代价,不在本文讨论之列。
服务器冷却技术
我们先来看看冷却技术,这种做法主要是解决散热能耗,提高散热效率,来降低数据中心的冷却系统的能耗和成本,并不是从源头降低服务器的能耗。但散热效率的提高可以作用于服务器能耗降低的推动并提高服务器的性能。
其中原因如下:温度降低后,服务器部件的工作性能会更高,尤其是关键的计算部件CPU性能。而更低的温度也能够促进服务器系统功耗的降低,比如VRM部件,DC-DC等电源器件在低温下电源转换效率会高。如果VRM和DC-DC能够提高5%的效率,则整个系统就可以节能5%。同时上文中谈过,目前大机房环境中冷却系统的能耗直逼服务器系统的能耗。所以,从冷却系统着手也是非常有意义的。
目前在server开始应用或者研发中的冷却技术主要有以下几种:
1. 水冷技术
例如IBM公司“冰蓝(Cool Blue)”,刚研发成功一个数据中心专用水冷配件新产品,利用标准数据中心冷却装置生产出来的冷水来补充制冷。每分钟,系统中都会有8到10加仑的水循环流过服务器架上的一个4英寸厚的后门,如图1所示这个热交换器可以带走55%的满配服务器机柜产生的热量。
![]() |
图1 是IBM冰蓝机柜部件
2. 其他吸热材料冷却
英国一家公司研制利用二氧化碳解决刀片式服务器散热问题在利用二氧化碳作为冷却剂方面已经取得了突破。目前公布的系统是由Trox先进冷却系统(AIT)和Star致冷公司共同开发的,首批采用该技术的冷却系统已经被安装在英国帝国理工学院。它的主要原理是采用了热吸收而不是传统的冷却技术,因此是一种更有弹性和节能的解决方案。这一冷却系统主要面向“高密度冷却,特别是每机柜的能耗超过20千瓦的刀片式服务器”,它安装在服务器机柜的后方,能够“捕获”风扇排出的热量。由于采用了二氧化碳,该系统具有“大容量、低能耗”等优点。
3. 优化设计的散热FAN以及散热风道
目前在优化散热风道设计上IBM在其blade centre上采用其矢量散热技术,图2和图3 是IBM blade center中采用的优化风道设计,图2是计算刀片的风道示意图,图3是刀片机箱内部风道示意图。据IBM宣称,采用该技术的IBM刀片服务器可以节省电能50%。
![]() |
图2 IBM BladeCentre 计算刀片风向图
![]() |
图3 IBM BladeCentre 机箱内部风向图
HP采用高性能风扇来提高服务器的散热性能,HP Active Cool风扇是一种创新的新型设计,转速达219Km/h。HP Active Cool风扇速度达到18000 rpm.在25摄氏度的条件下,每个HP Active Cool风扇可冷却5台常见IU服务器。
主芯片CPU节能技术
由于本文的重点是服务器整体系统的节能技术,所以在CPU厂商的节能手段不作重点描述,仅仅简单介绍。
![]() |
目前AMD和Intel两大主流CPU提供商都在节能方面进行了大量的工作。目前设计的趋势是Silicon and Platform Innovation——新的材料、工艺和架构,目前开始在主流高端服务器上开始多核多线程产品的设计。在未来的几年中,将在更低的能耗下提供更高的性能(performance per watt)。它可以在不提高能耗与热阻的情况下,增加更多的计算能力。
目前Intel Xeon处理器加入了Demand Based Switching(DBS)技术,这是Intel SpeedStep技术的增强型,在低运算需求环境下,它可以减少多达25%的能耗。AMD在其处理器中采用“Power Now!”技术,可以动态自适应调整CPU频率,可以在空载的情况下大大降低服务器的能耗。
其他RISC芯片提供厂商也推出了不少在节能方面的创新技术,其中服务器厂商SUN推出了UltraSPARC T1新型处理器的突破性技术,为系统性能、占用空间和功效创立了新的行业标准,这些新系统的设计宗旨就是要降低功耗与冷却费用以及对空间的占用,与Intel的传统芯片相比,UltraSPARC T1新型处理器可以节省80%的功耗,并采用专利权的CoolThreads技术,设计出一款八核32线程的处理器,在单块芯片上实现了整机架的服务器的性能。在目前绝大多数处理器每线程至少消耗40瓦功率的时代,Sun的每一个基于SPARC的CoolThreads处理器,每个线程仅仅消耗2瓦功率。
软件管理节能技术
软件管理节能技术又可以分成几类。
第一类,更改操作系统内核,优化程序执行队列或者根据负载情况动态调整CPU频率。目前该技术主要处于研究状态,还没有进行实际的应用。
主要原理是对CPU的运行状态进行计算,分析任务队列,对不同的任何进行功耗计算,同时建立一些CPU散热器的散热模型,在工作过程中,尽量把功耗高的任务同功耗低的任务进行交叉进行,这样可以保持CPU在稳定的负载下运行,减少热能的散发并提高运行效率。同时,当发现CPU任务队列对功耗需求较低,通过BIOS接口进行CPU功率的动态调整,比如一个服务器系统,CPU为至强3.0GHZ,在CPU任务队列较少的时候,就可以把服务器的CPU从3.0Ghz根据任务需要调整倒一个比较低的频率,这样就可以使CPU的功耗大大降低。
另外一种做法就是软件功率管理,比如IBM和HP都有类似的软件。PowerExecutive 是 IBM 功率管理软件的扩展,允许用户“计量”任何单一物理系统或一组物理系统的实际电力使用数据和趋势数据。由 IBM 研究中心开发的 PowerExecutive 使用了IBM开发的线路监测技术,可以确定实际能耗和系统温度。新 System x 服务器以及 IBM BladeCenter 刀片服务器都采用了 PowerExecutive 软件,通过功率管理来实现对部件耗电的控制。
HP使用惠普(HP)能量智控技术(Thermal Logic)以及HP BladeSystem系统套件,通过功率计算以及优化风道设计能够比相同数量的机架式服务器冷却所需气流降低50%且耗电减少70%,追踪每个机架中机箱的散热量、内外温度以及服务器耗电情况。
还有一种电源管理技术,适用于多电源模块系统,例如大型机系统或者刀片服务器系统,一般采用多个电源模块。其原理是根据电源模块的效率特性曲线。对于电源模块效率曲线而言,一般不同的负载会有不同的效率,当然会有非常好的效率点,一般情况下在电源在高负荷下运转才能发挥最大效力,所以可以根据系统的功率情况进行电源个数的调整,使每个电源工作在非常好的效率点。
例如一个系统中有6颗1kw电源模块,其在最大90%负荷时电源转换效率最高,为85%,而在其负载为40%时其效率为65%。在系统工作的某个时刻,经过监控系统测出实实功耗为2700W,这样就可以关闭3颗电源,实现电源转换效率为85%,而如果不采用任何手段时,其效率仅仅为65%,系统实现节能30%左右,同实减少热量排放降低冷却成本。(本文中数据仅供举例参考)
小结
从上文分析中可以看出,目前整个服务器和机房系统的产业链上都在重视和解决节能问题,服务器系统节能已经是大势所趋。上文介绍的仅仅是解决该问题的部分做法,有些目前正在应用,部分还在研究中。
而从使用应用来看,大的数据中心和计算中心以及其他大型机房对节能技术和机房整体冷却技术需求比较迫切。主要是服务器数目较多并且长期不间断工作,同时冷却压力和在冷却的成本较高。而机房中多应用的是集群系统,在这种情况下,非常好的的或者说最方便的电源管理方案是系统动态任务调度技术。即可以根据系统运行情况,在任务量不重的情况下,尽量把任务集中迁移到服务器上,这样同时通过管理软件动态调整和迁移,闲暇的服务器可以自动关闭。当任务请求增加,在根据任务情况动态的向正在运行的系统中添加服务器,来分摊过重的应用。这样可实际操作性较大并且比较开放工作量也相对简单,并可以取得较好的效果。
