服务器 频道

分析:数据中心如何应对功耗挑战(上)

    【IT168专稿】随着对处理器、内存以及存储的需求量越来越大,数据中心每天消耗的电源功率也越来越多,这也就意味着你需要花费更多的钱来运转这个数据中心。

    如何有效驱散积聚在数据中心中的热量?如何更高效合理地分配数据中心中的电源功率使用?如何对数据中心进行改造以便降低数据中心的整体运作成本?等等,都是摆在当前数据中心管理者面前的棘手难题。

    运行数据中心已经变成一个非常复杂的工作。今天,作为一个数据中心的管理者,所做的工作已经远远不止通过设备管理、安全防护、法规遵从等保证计算系统、网络系统以及应用系统的正常运转,他还必需要懂得电源使用成本以及可用行、冷却技术甚至房地产等,才能很好地服务于企业业务的运作。

    诸多调查报告都显示,数据中心电源功耗将是未来几年中摆在IT主管面前的最为严重的基础架构挑战。五年以前,每个机柜的平均电源功率需求为1~3千瓦。随着对处理器计算周期、内存以及存储的需求持续增长,再加上每个机柜中设备的密度不断加大,目前普遍来说一个机柜需要5~7千瓦的电源功率,如果机柜中装载的是高密度的刀片服务器,那每个机柜的电源功率消耗更是高达24~30千瓦。当将这些不断攀升的电源消耗数字与日渐增长的电价联系在一起的时候,你就很容易理解为什么数据中心电源功耗会变得越来越受关注。

    如何应对这一挑战呢?你可以根据自己的实际需求情况做各种考虑。

重新设计数据中心

    为应对这种即将来临的数据中心功耗需求的危机,你可以选择的最好办法就是重新设计你的数据中心或者干脆建设一个新的数据中心。

    重新设计数据中心看似简单,实际上在这个过程中还是有很多因素需要全盘考虑,例如电源功耗的设计中不可忽视冷却功耗,需要考虑模块化和灵活的设计来确保未来升级过程中的投资保护,同样如果你忽视效率方面的因素也必将付出相应代价,因为从目前来看,起码在未来十年内能源价格是不会走下降趋势的。

    冷却功耗不可忽视

    表面上看,我们是聚焦数据中心的电源设计,但是在数据中心中,任何与电源功耗有关的话题必然会包括冷却。

    通常来说,一个消耗24千瓦电源功率的设备机柜大约需要6~7吨(大约78000 BTU)的制冷量。这只是一方面,气流也是同样关键的因素,一般是以CFM (立方英尺/分钟)来度量。同样消耗24千瓦电源功率的机柜设备将需要3800CFM的气流才能维持厂家规范参数中标定的运行温度。

    一般的数据中心是设计为给每个机柜传送300CFM的气流,但是在高架地板数据中心通常采用的多孔地板砖最大只能提供600~700CFM的气流——这是在假定地板足够高,能够允许大量气流流动,地板下的空间不会太多地受到其中电源和数据线缆的限制的情况下的最大值——这会造成双重设计问题。

    决定数据中心的最适宜的地板高度,实际上是在气流和重量之间寻求非常好的平衡的一个问题。地板越高,可以通过的气流越多,但是地板所能承受的负荷重量却会减少。一般来说,高架地板数据中心地板的典型高度是30英寸。

    效率评估

    如果你还没有把设备效率的评估作为购买评估的一个常规项目,那么在你下次购买的时候不妨将其作为一个关键项来考虑。同样面临电源和冷却成本不断上升的事实,这样的思想可以帮助你获得最低的总体拥有成本。

    Sun公司的SWaP(Space,Watts and Performance)计算公式是一个很不错的评估方法,数据中心的主管可以通过该公式测量出数据中心的空间占用、功耗瓦数和性能的综合状况,对于特定的设备(如服务器),也可以方便地量化出其效率对TCO的影响。该计算公式是通过用一个性能值(如每秒的运转数)除以设备机柜占地面积与电源功耗的乘积来计算的。

    如果有足够的人开始对SWaP敏感,那么也许你的下一台服务器将会附加一个明亮的黄色DOE EnergyGuide标签,上面将列出运行该设备的平均年使用成本。就类似于新的洗衣机、风干机以及热水器上面附加的标签一样。

    当你的设备人员需要电源需求总量方面的指导来重新设计数据中心时,你也许会倾向于使用设备的提示牌标签来获得信息。这种方法的步骤通常就是,线将目前所有的设备标签上的瓦特数加在一起,从而获得一个目前你正在使用的电源功率总数——然后根据你整个数据中心项目增长计划估计额外的电源功率需求。

    不过如果你使用这样的估计方法,你就很可能会对电源功率需求做出过高的估计,从而花费将高于你的实际需要,因为设备提示牌上面的瓦特数指的是其能够产生的电源功率数,而不是运行该设备所需要的功率数。

    根据APC近期的一项研究,一台满配置的IBM BladeCenter在100%使用率的情况下消耗的电源功率比提示牌标签上的功率要低25%——实际消耗4050瓦特,而标示值为5400瓦特。 可见,设备提示牌上的功率值与实际功率消耗之间的差别还是比较大的!因此我们还是建议你别使用提示牌来估计你的电源需求。

    如果你的数据中心再设计计划还在一年以后或更远的将来,那么你目前可以先考虑投资购买电源使用监测设备。关于现有电源功率消耗的准确报告,不仅是你目前实际需求的最好指示器,而且也是对于你将来增长需求的非常好的预测器。

    设备提供商也正慢慢开始意识到提供实际电源功率消耗数字的需求。不过,如果你还没有开始对电源使用情况进行日常监控,我们觉得你是应该与设备供应商好好沟通了,让他们帮助你来实现这样的信息服务。另外,要记住一点,在以后的数据中心设备需求说明书上要强调厂商提供实际的电源消耗数字;毕竟真正节省下来的都是你自己的成本。

    用模块化赌未来

    在你的新数据中心或重新设计的数据中心中,不可能从第一天起你就必须为每一个机柜都提供24千瓦的电源功率。然而,在你再次重新设计你的数据中心之前,你也许将需要为这些机柜提供更多的电源功率。因此,设计一种合适的电源升级计划是非常重要的,这样可以确保你在未来业务计算需求变化的时候能够适时做出反应。

    大多数的数据中心类PDU(电源分配单元)和UPS厂商都提供可以模块化扩充容量的机架式系统,这些设备在初始装配的时候可以只使用总容量空间的25%~50%;当电源使用需求增加的时候,另外的电源模块可以很方便地安装在已有的小机柜中,这个升级过程中既不需要增加地板空间,也不必停机。你只需要确认你的电源传送链条,包括电路、紧急发电装置以及后备电池等,都能够支持额外的电源需求就可以了。

    这里还要指出的是,作为明智的做法,在开始的时候不要安装一个满负荷的PDU-UPS,而是应该考虑部署两个或更多的稀疏配置的组件,为未来扩展做长远考虑。这样虽然初始需要较多的地板空间和投入比较多的资金,但是你的升级通路显然是清晰的,而且你将来的升级的停机时间也得到最小。

    APC公司就提供了一个有趣的产品,称为英飞制冷分配单元(InfraStraXure Cooling Distribution Unit),可以为数据中心的冷却系统带来同样的模块化属性。该制冷分配单元提供了1~12路的半机柜宽的、30kVA的冷却单元来供应均衡的、冰冷的水分配。冷却分配单元与APC英飞InRow机柜制冷单元之间是通过无缝的、柔性的管道系统连接起来,这些管道的安装很快也很容易。

    你可以从30kVA的制冷系统开始部署,随着需求增长,通过添加半机柜宽度的冷却单元,一直扩充到最大360kVA的冷却系统。当然,随着冷却需求的增加,你的制造冷水的系统也应该相应增加,但是数据中心内部的变化并不会太杂乱无章。

    Liebert也提供了一种类似的模块化升级方法,其产品是X-treme Density(简称XD)。XD系列冷却器可以固定在天花板上(XDO型),也可以固定在设备机柜顶端(XDV型),从而有效节省数据中心中的地板空间。XD系列产品是可扩展的,可以有效冷却每平方英尺500瓦特以上的热环境。

    电力改造—AC还是DC?

    关于数据中心节省能源问题,还有另外一种在业界颇有争议的方法,那就是将数据中心中的服务器和存储等设备由AC驱动转换为DC驱动,估计能够带来10%~25%的能源节省。电信产业使用DC驱动的设备已经有很多年了,因而在使用这种方法上也是先行者。不过要获得显著的节省,必须要先克服一个困难——将DC电源推进到企业数据中心。促进这一转换背后的驱动力是今天AC电源供给的不足。

    在大多数服务器中使用的AC/DC电源供应只有70%~80%的效率,这也就意味着供应到该设备的每瓦特功率中有20%~30%只是产生热量,而没有发挥真正的效能。为此,你不仅需要为运转这些设备所浪费的电能付费,而且你还需要为冷却这些浪费的电能所产生的热量而付出一笔不小的开支!如果数据中心中使用DC电源,就需要一个整流器来将公用的AC网格电源转换为DC电源,典型的整流器可以90%以上的效率运转,而且并不需要位于数据中心之内。

    不过,在转换到DC电源之前,你需要有足够的心里准备——所有的PDU和UPS必须替换掉,而且现有的AC电源线缆也都将需要重新替换,因为它们对于传送低电压、高电流的DC电源来说不是足够宽大;机柜也必须用大型铜汇流派来翻新,以便能够在机柜内分配DC电源,随之机柜中的每一个系统都需要转换或更换。

    即便是考虑完全重新设计数据中心为DC电源模式的企业,也需要意识到这样做的一些潜在缺陷。毕竟提供基于DC设备的厂商并不多,因此其初始建设成本通常将会比采用相应的AC供电设备的成本要高。不过由于其年运行成本较低,所以前期附加的成本很容易被抵消掉。在此,我们还是建议这些企业对长期运行的成本节省做仔细的分析和研究,然后再采取行动,毕竟这是一番伤筋动骨的彻底改造。

    最后,数据中心工程人员以及IT专业人士一般都对AC非常熟悉,但对DC电源相对了解较少,所以实现DC数据中心的任何计划都应该将这部分培训成本计算在内。

    值得引起关注的是,很多厂家正在致力于提高AC电源供应的效率。比如,IBM就已经申明其BladeCenter电源供应可以达到90%的效率。即使你不得不为这个增加的效率付出更多的银子,但也是值得的,因为当你考虑到设备整个生命周期中的总体电源成本时,你会发现你的总体拥有成本得到显著降低。

     如果AC效率的改进成为一种趋势,那么DC原来所具备的相对优势也必然将不再引人注目。

    如果你准备在未来一到两年内安装新的电源和冷却基础架构,那么转向DC路线对于你来说几乎就是处于出血的边缘,尽管IBM、HP、Sun等厂商都提供了DC供电的系统,但是可选择种类之少还是会让你感觉很受限。

0
相关文章