不同的观点:从机房入手
另一部分专家认为,尽管硬件提供商已经在努力减少数据中心的硬件热量,但还是需要设计特定的、强大的机房冷却系统来满足高计算能力的需求。有分析师认为目前芯片的设计技术和工艺已经接近CMOS电路设计的节能极限,并且还没有发现有更好的节能技术可以取代CMOS工艺。所以,随着计算能力需求的增长,机房在越来越挤的同时,也会越来越热。那么,在设计机房时,又有哪些可用的冷却措施呢?
1)向CRAY学习,水冷却
事实上,几十年前人们就已经开始采用液体冷却技术。目前许多专家都建议向老的CRAY超级计算机学习,采用水冷却技术。据悉,从70年代起,CRAY超级计算机就开始采用水冷。
“水冷技术将会重新进入数据中心,唯一的问题是什么时候。”IBM散热专家介绍,正如大家都知道服务器总有一天要采用水冷,但却没有人第一个使用,因为其他的竞争者都会宣称自己的设备仅通过风冷就能解决问题。只有当大家都承认水冷是必须的,这项技术才将会在服务器上应用。事实上,服务器提供商目前在采用各种手段避免液体冷却,但这只会让系统更加复杂。
2)冷空气,热部件
传统数据中心一般是通过地板下的冷空气来冷却硬件,这种做法在某些情况下是非常有效的。首先需要保证的是,数据中心能够从地板下获得足够的冷空气,并使其到达需要冷却的设备位置。但即使可以做到这一点,如何让冷空气达到机柜顶部仍然是个问题。
而且,阻止机器散出的热空气同冷空气混合更是困难重重。因此,对于新设计的数据中心,一方面要采用各种手段来最大化地实现散热,另一方面,更重要的是采用一些局部化的冷却技术。
一种选择的方案是特定的模块系统,例如APC公司提供的InfraStraXure Cooling Distribution Unit,可以为数据中心的冷却系统带来模块化解决方案,该制冷分配单元提供了1~12路的半机柜宽的、30kVA的冷却单元来供应均衡的冷水,并在模块内部集成电源、管理等系统。如果采用了这样的模块系统,数据中心在设计机房时就不再需要敲开地板来进行地下风道设计,而且能获得更高效的致冷效果和更灵活的冷却方案。
在节约机房空间方面,也有可供选择的产品,比如Liebert冷却方案,其冷却系统X-treme Density可以固定在天花板上或者机柜顶部,通过顶部风扇和无水制冷泵来保证机架内部的安全温度,以此来节省数据中心中的地板空间。
在应对IT设备急剧升温的战役中,所有的设备提供商和相关产业链厂商到需要开始有所动作——在设计和制造设备的同时要充分考虑数据中心到底需要何种措施来保持设备正常运转。对于目前存在的两种观点——改造机房或采用“冷”服务器,这两种做法并不是互斥的,任何数据中心的主管都应该采用所有有效的手段,来确保硬件不会因为过热而崩溃。