服务器 频道

液体冷却 数据中心散热有新招

向模块化方向发展

   近年来的另一个发展方向是模块化、完成密封的服务器系统开始流行,这些系统经常都整合了液冷单元。比如“集装箱”式计算系统,如SUN公司的Modular Datacenter S20 (即原来的Blackbox),以及Rackable System的ICE Cube和 Verari的 Forest 。微软近期则宣布正在美国芝加哥地区投资5亿美元,建设一个可以容纳150-200个“集装箱”(称为C-blocks)的大型数据中心,每个这样的“集装箱”包含1000-2000台服务器。

   另外,通过使用APC或Liebert的一些产品,类似上述方法也可以在现有的建筑屋中实现。比如,去年斯坦福大学工程学院高性能计算中心要安装一台拥有1800颗CPU核,计算能力达到每秒14万亿次的超级计算机。

    计算中心主任Steve Jones说,“学校的数据中心只能给我们提供大约每机柜5KW的电力和相应的散热设备,但我们需要实现更高的计算密度,大约是每机柜20KW,因此学校的机房没法满足我们的需求。”

    Jones没有浪费时间和金钱去新建什么数据中心,而是接管了一个没怎么得到充分利用的计算机实验室,然后使用 APC的InfraStruXure 系统,该系统在机柜中集成了供电和散热单元。然后由学校后勤部门负责把水管和电线铺好,由APC、戴尔和Clustercorp工程师组成的项目小组负责安装机柜和服务器。从设备到达现场,直到集群投入使用,总个过程只花了11天。

    CDW Berbee在扩展其1.2万平方英尺的数据中心时,也采取了类似的办法。为了消除机房中的热点,CDW Berbee安装了8个20KW的Liebert XDH 散热器和一个160KW的Liebert XDC 冷却装置。

    Rasmussen说,“我现在所有的系统都运行很正常。在大多数情况下,我们都把机房温度控制在22摄氏度。”

    McFarlane说,“我处理过一些小型的数据中心,大约有20-30个柜子,对这种规模的数据中心来说,完全用液态机柜是很有意义的。但对于拥有成百上千个机柜的大规模数据中心来,我们今天还需要比这更好的解决方案。”

试试打开窗户

    虽然人们习惯于把服务器封闭在一个房间里,但相反的做法也开始出现。比如,ESTECH International的Millennium Series Chiller Optimizer使用室外空气来减少机房对制冷剂或空调的依赖。这些节热器会监控室外和室内的环境变化,并决定可以用多大比例的室外空气来帮助机房达到最优的散热效率。

    Sorrell说,“如果从机房回收来的空气非常热,这样相比下,直接使用室外的空气也许更有效。你可以选择在使用室外空气时让制冷站保持运行,或者当室外空气温度低很多时,可以把制冷站关闭,节省更多费用。”

    他谈到,室外空气质量通常也足以用在数据中心,何况它还要经过一层过滤。同时使用室外空气也提供了一种备份的散热方案。在北半球高纬度地区,如果你的制冷站出了问题,你任何时候都可以使用室外空气。即使室外气温达到了32摄氏度,数据中心设备至少在1-2个小时内不会瘫痪。

0
相关文章