【IT168 专稿】直到最近,许多单位才不得不开始重新审视其数据中心基础设施的建设思路。以前它们认为,只要拥有足够的空间来存放新的服务器机架,散热和电力设施可以满足需要就可以。但是这种时代在迅速远去,人们对计算性能的需要在逐渐增高。
根据IDC的数据,在数据中心管理者所关注的问题中,存放和运行服务器所需要的计算机支持基础设施建设的重要性仅次于系统价格。IDC负责高性能计算的副总裁Steve Conway曾如此表示,“在3到4年以前,这些问题的重要性在人们的心目中要排到第12的位置,当时并不被人们认为是个问题。”
这种优先级的变化体现了技术的更新换代和在处理能力需求上的剧增。虚拟化和多核处理器技术正在让我们在更小的空间内实现更强大的处理能力。随着各种类型企业的核心业务过程对联网计算机的依赖程度的增加,企业在不断地将更多服务器放到它们的现有数据中心中。Gartner预计,到明年,世界上的数据中心有一半的基础设施将不能满足最近的高密度设备的电力和散热的需求。
这种改变给大型数据中心的管理者带来一个问题,这也是高端技术的超级计算中心的管理者数十年来一直在解决的问题:如何合适地搭建数据中心的基础支持设备,优化高密度服务器机架的散热问题,针对业务需要均衡数据中心效率和跟踪那些可以推动或破坏数据中心运行的细节问题。
设计一个新的数据中心,或者对一个老的数据中心进行重新设计,都是一个非常复杂的过程,但是根据过去十年的经验,以下六个思路将帮助您朝着正确的方向去开展自己的工作。
①判断你是否真正需要自己的数据中心
建设你的计算机基础设施是一个具有挑战性的过程,而且需要一定的投资。在你决定要搭建自己的数据中心前,先问一下自己,“我真的需要自己的数据中心吗?”
一个最低限度强壮的数据中心起码要包括电力切换设备和发电设备。但是几乎没有人会停留在这个初级层次上。更多的错误冗余设备还包括不间断电源(UPS)的电池或飞轮系统、设备备件,甚至可能还有多个独立的商业化供电线路连接。而且你还需要保护自己的数据中心避免遭受火灾和自然灾害的威胁。一旦数据中心建立后,你还需要有专门的人员来监控和维护它。
正如Amazon的首席技术官Werner Vogels在最近的下一代数据中心大会上所说的,除非你的企业所处的是一个高效、内部数据中心可以直接带来收入的行业,选择将你的应用程序托管在别人的数据中心可能是一个更好的选择。
当然,这个解决方案并不一定适合所有人,但是出于成本的考虑,它无疑是值得你考虑的选择。
②权衡绿色设计的成本和收益
增长的成本和耗能比率正在将电力设计问题推到IT规划探讨的面前。诸如变压器、电力线缆、散热系统和UPS系统,都可能具有比较大的固定电力损耗,也就是说,在你的电能到达第一台服务器前已经被消耗了一小部分。
Green Grid是一个由对提高数据中心能源效率感兴趣的信息技术公司组成的联盟,它推荐通过减少冗余组件来合理精简你的基础设施,只安装那些使你的数据中心正常运行所需要的设备。根据该组织的节能数据中心指导,合理精简基础设施可以节约大约50%的电能。
如此看来,绿色设计确实值得我们考虑。但是它在面对实际情况的时候却又显出其不足之处。
在电力能源依然处于比较紧张的阶段,电网负荷非常高,计划内和计划外的停电事件并非百年一遇。考虑到这个情况,数据中心管理者应该考虑电力冗余问题,其中包括不间断电源或发电机等的增加。
很明显,你需要尽可能设计你的数据中心基础设施的效率。但是至于你可以将你的电力基础设施“绿色设计”到什么程度,要根据你的企业业务的特点来定。举个例子来说,如果你认为增加冗余设备所投入的成本要远远大于数据中心停电可能会给企业带来的损失大的话,你可以考虑采用绿色设计,反之,则要根据情况增加冗余设计,虽然会增加一些固定的电能消耗和设备投资成本,但是这是业务需求不可避免的。
③设计临近耦合散热系统提高灵活性
计算机最拿手的有两件事:计算数字和将电能转化为热能。在数据中心中所消耗的电能中有30%的被转化为服务器中的热量。
散热的传统方法是通过散热设施把服务器的热量散到空气中,再由机房中的制冷空调将其冷却。这种方法实际上使这个屋子充满冷空气,而对于特定的要降温的区域缺乏足够的灵活性。
“临近耦合散热(closely coupled cooling)”的概念在超级计算机中心中已经流行了几年,我们发现效果不错。这种设计的理念是把冷却设备与要降温的设备放得非常近。这种方法可以实现有针对性的降温效果和热区的控制,而且比传统的方法可以更加节省电能。采用“临近耦合冷却(closely coupled cooling)”系统的计算机中心中的机架密度可以比采用传统散热方法的机架高3倍。随着客户需要对服务器机架密度需求的不断提高,所有的主流服务器厂商现在正在提供这种散热方法的设计。
目前已经有许多基于机架和基于芯片的“临近耦合散热”解决方案。例如,把冷空气直接导入到机架中,而不是在整个房间中浪费太多的能源。
另外,基于芯片的液体冷却技术也在不断发展。2005年,Liebert公司收购了Cooligy公司,后者开发的一种方法可以把经过化学处理的水喷到热的部件上面。100多条微通道把冷却剂引到芯片内部特定的发热部位。
美国暖通空调工程师协会内部的工作委员会在去年年底为数据中心里面使用液冷方法发布了指导准则。这个协会的代表来自几家服务器制造商,包括惠普、IBM和Sun。
尽管这些技术对你来说可能还比较陌生,可能还存在这样或那样的担心,但是随着技术的发展,这些忧虑将会逐渐得到消除,因此在设计数据中心的时候,这是一个不能遗忘的部分。