【IT168 专稿】数据中心的主管们正在打包越来越多的计算能力进入狭小的机房。但是今天的机架式服务器和刀片服务器同以前传统的塔式服务器相比,每平方米的功耗大大增加,以现在的发展速度,如果数据中心不进行系统的改造,散热问题最终将会导致数据中心崩溃的灾难性后果。
那么,对此的解决之道是怎样的呢?是设计冷却能力更强的数据中心还是采购更“冷”的服务器?IT厂商又是更希望朝哪个方向发展的?对于数据中心的主管们来说,在下一次计划服务器升级时,他们应该如何选择?
对于上述问题,不同的专家持相反的观点,部分专家认为硬件产品提供商已经采用不少创新技术以使他们的硬件产品更节能,数据中心只需要采购最新的硬件设备就会使他们的机房在安全的温度下工作。而另外一些专家们则认为,随着计算能力需求的增加,数据中心在设计时就需要采用更好的散热设备以保证机房内的设备正常工作。
首先我们来看看前者的论据,他们认为是开始硬件创新的时候了。先进的服务器设计技术应该可以把数据中心搬进一个更小的房间,通过服务器各部件设计技术的创新来提高计算密度。
根据N.H based Illuminata分析师Nashua介绍,传统的服务器能耗不断增大的时代行将结束,厂家在寻找更“冷”的服务器来提高计算密度。而一个“冷”的服务器是从CPU开始。
更好的CPU
多核技术带来了降低数据中心冷却需求的潜力。在获得同样或者更多计算能力的情况下,多核CPU可以运行在较低的频率上,从而不需要产生很大的热能。
双核技术开始于90年代的RISC CPU上,从2005年起AMD和INTEL把这一技术广泛地应用于x86的内核上。而今年intel更是开始推广其四核CPU。虽然今天双核CPU的出现主要是为了获得更强的计算能力,而不是为节能而生,但分析家预测,在将来多核技术进一步发展的情况下,可能会使CPU在以较低的频率获得强大计算力的同时也可以降低能耗。
不过,从目前双核服务器产品的现状来看,众多数据中心的主管主要还是使双核CPU的服务器工作在最高频率上以获得更高的性能,而不是使他们运行于更低的频率上,以在获得单核计算能力的同时并降低能耗。
另外一个新的可以帮助服务器降低能耗的芯片技术就是“按需切换”,例如intel的至强CPU就采用了这种技术,当系统不忙时可以通过自动降低频率、电压等参数来获取低能耗。服务器厂商宣称采用该技术,可以帮助用户每年节省24%的电能花费。
更少的器件,更节能的服务器
当然,芯片只是个开始,服务器其他部分的设计还需要在节能问题上进行研究。IBM是这方面的领导者,尽管其采用的很多制冷措施并不是最新的技术,但确实能起到很好的效果。
CVC(Calibrated vectored cooling),矢量校准技术是一个例子,CVC优化冷却系统中空气流动的风道,同时可以用新鲜冷空气直接冷却服务器中最热的部件,并减少服务器中风扇的数目,这样来可用来帮助服务器系统降低能耗。目前IBM在 xSeries 服务器和刀片中都采用了该技术。CVC技术保证了IBM率先在刀片服务器中使用基于至强处理器的刀片子系统。
谈到刀片服务器,不仅仅是IBM在研究散热策略,几乎所有刀片服务器提供商都面临着能耗和冷却问题。这里我们以Egenera公司为例,刀片服务器是该公司的主要产品,并在市场中一度占据重要位置,惠普、IBM和Sun是其三大主要竞争对手。Egenera的客户主要是高端数据中心,包括金融服务、健康医疗和Internet计算。据其副总裁介绍,考虑到数据中心一般没有豪华和奢侈的机房,大多资源有限,所以更“冷”且计算密度更高的服务器将会给数据中心主管以深刻的印象。跟市场上的其他产品不同,Egenera刀片服务器中只有CPU和内存,没有可能会阻挡空气流通的硬盘、扩展槽位或者NIC。也就是说,其他所有部件都不放在服务器中,这样可以尽量减少组件数量以降低风阻,保证对主要散热部件和区域的冷却效果。
不同的观点:从机房入手
另一部分专家认为,尽管硬件提供商已经在努力减少数据中心的硬件热量,但还是需要设计特定的、强大的机房冷却系统来满足高计算能力的需求。有分析师认为目前芯片的设计技术和工艺已经接近CMOS电路设计的节能极限,并且还没有发现有更好的节能技术可以取代CMOS工艺。所以,随着计算能力需求的增长,机房在越来越挤的同时,也会越来越热。那么,在设计机房时,又有哪些可用的冷却措施呢?
1)向CRAY学习,水冷却
事实上,几十年前人们就已经开始采用液体冷却技术。目前许多专家都建议向老的CRAY超级计算机学习,采用水冷却技术。据悉,从70年代起,CRAY超级计算机就开始采用水冷。
“水冷技术将会重新进入数据中心,唯一的问题是什么时候。”IBM散热专家介绍,正如大家都知道服务器总有一天要采用水冷,但却没有人第一个使用,因为其他的竞争者都会宣称自己的设备仅通过风冷就能解决问题。只有当大家都承认水冷是必须的,这项技术才将会在服务器上应用。事实上,服务器提供商目前在采用各种手段避免液体冷却,但这只会让系统更加复杂。
2)冷空气,热部件
传统数据中心一般是通过地板下的冷空气来冷却硬件,这种做法在某些情况下是非常有效的。首先需要保证的是,数据中心能够从地板下获得足够的冷空气,并使其到达需要冷却的设备位置。但即使可以做到这一点,如何让冷空气达到机柜顶部仍然是个问题。
而且,阻止机器散出的热空气同冷空气混合更是困难重重。因此,对于新设计的数据中心,一方面要采用各种手段来最大化地实现散热,另一方面,更重要的是采用一些局部化的冷却技术。
一种选择的方案是特定的模块系统,例如APC公司提供的InfraStraXure Cooling Distribution Unit,可以为数据中心的冷却系统带来模块化解决方案,该制冷分配单元提供了1~12路的半机柜宽的、30kVA的冷却单元来供应均衡的冷水,并在模块内部集成电源、管理等系统。如果采用了这样的模块系统,数据中心在设计机房时就不再需要敲开地板来进行地下风道设计,而且能获得更高效的致冷效果和更灵活的冷却方案。
在节约机房空间方面,也有可供选择的产品,比如Liebert冷却方案,其冷却系统X-treme Density可以固定在天花板上或者机柜顶部,通过顶部风扇和无水制冷泵来保证机架内部的安全温度,以此来节省数据中心中的地板空间。
在应对IT设备急剧升温的战役中,所有的设备提供商和相关产业链厂商到需要开始有所动作——在设计和制造设备的同时要充分考虑数据中心到底需要何种措施来保持设备正常运转。对于目前存在的两种观点——改造机房或采用“冷”服务器,这两种做法并不是互斥的,任何数据中心的主管都应该采用所有有效的手段,来确保硬件不会因为过热而崩溃。