首页 > 范文大全 > 正文

基于PUE评价指标的数据中心的绿色IT技术

开篇:润墨网以专业的文秘视角,为您筛选了一篇基于PUE评价指标的数据中心的绿色IT技术范文,如需获取更多写作素材,在线客服老师一对一协助。欢迎您的阅读与分享!

[摘 要] PUE是Power Usage Effectiveness的简写,是评价数据中心能源效率的指标,是数据中心消耗的所有能源与IT负载使用的能源之比,是DCIE(data center infrastructure efficiency )的反比。PUE = 数据中心总设备能耗/IT设备能耗,PUE是一个比值,基准是2,越接近1表明能效水平越高。PUE(Power Usage Effectiveness,电源使用效率)值已经成为国际上比较通行的数据中心电力使用效率的衡量指标。PUE值越接近于1,还表示一个数据中心的绿色化程度越高。因此,在数据中心机房设计和规划前期,要充分考虑PUE要素,并作为数据中心节能的重要评价指标。后期,在数据中心运营过程中,能够做到更加节能、环保,以期投资收益比的最大化。

[关键词] 绿色数据中心; 能耗; PUE; DCiE

doi : 10 . 3969 / j . issn . 1673 - 0194 . 2014 . 02. 058

[中图分类号] TP391 [文献标识码] A [文章编号] 1673 - 0194(2014)02- 0111- 03

1 前 言

1.1 数据中心能耗结构

据美国环境保护署的报告,典型的数据中心能耗分布为:数据中心的网络设备(服务器,网络通信与交换,存储器等)的能耗占数据中心总能耗的50%~52%;机房空调系统占数据中心总能耗的38%~40%;供电及辅助照明等系统的能耗占数据中心总能耗的8%~10%[1]。

1.2 PUE和DCiE能效模型

2007年2月,绿色网格组织(Green Grid)制定了数据中心的能效比指标,分别叫PUE和DCiE。 PUE即能量使用效率,是Power Usage Effectiveness的简写,是评价数据中心能源效率的一个指标,PUE:数据中心总设备能耗/IT设备能耗,PUE是一个比率,基准是2,越接近1表明数据中心能效水平越高。DCiE即数据中心基础设施效率,是Data Center Infrastructure Effectiveness的简写。其值是PUE的倒数。DCiE=IT设备能耗/数据中心总设备能耗 × 100%[2]。

数据中心典型的PUE 和DCiE曲线如图2。

数据中心总能耗 = 制冷用电负荷 + 供配电能耗 + IT 设备能耗,Total Facility Power = Cooling Load + Power Equipment Loss + IT Equipment Load, 所以PUE 指标分解为:

CLF 就代表在每W IT负载上消耗的制冷用电量,而 PLF 就代表在每W IT负载上供电系统的损耗,1.0则永远不会变,因为这是 IT 负载和自己的比率。这样,就可通过一些子指标来定量表征数据中心能效模型[3]。

2 数据中心节能技术研究

基于上述pue 模型,将从以下3方面进行研究: ① IT 设备节能研究; ② 供电系统的节能研究; ③ 制冷系统节能研究。

2.1 IT设备绿色节能技术研究

数据中心IT设备是能耗大户。以服务器为例,服务器最大的能耗来自芯片,单颗Intel至强处理器的功耗为80~95 W,有的达130 W。基于X86服务器环境中,Windows和Linux服务器利用率一般低于CPU资源的15%;很多UNIX服务器只利用了15%~25%;这意味着服务器有75%~90%的时间在消耗电源和冷却资源,却不完成任何工作。

针对服务器能耗及利用率低下的问题,厂商不仅在自身产品节能优化上下功夫,同时,兼顾新技术的推广应用。

2.1.1 自身产品节能技术屡有突破

(1) 芯片方面,即采用多核的X86芯片技术提升处理能力,从而降低芯片数量的增加。因此,在短短几年时间里,我们见证了处理器从2核、4核、6核、8核,直至12核的飞速发展。

(2) 电源方面,服务器厂商采用高效电源。如戴尔采用智能节能技术,可在性能增加的同时降低能耗。

(3) 风扇方面,IBM引入高效率的双段式对转风扇,比传统的风扇设计节能40%。

(4) 在硬盘方面,机架服务器更多采用的是HDD2.5英寸小硬盘,相比3.5寸大硬盘,有近一半电能的节省。不仅如此,固态硬盘开始在服务器中亮相,与普通HDD硬盘相比,在能耗上,固态硬盘的能耗比HDD硬盘低4/5。

2.1.2 新技术的推广应用

虚拟化技术使多个服务器上的工作负载合并到单个服务器上,使服务器利用率提高到50%~70%,并且潜在地以削减的成本在X86和UNIX服务器上完成4~6倍的工作。服务器整机生产厂商纷纷推出各种“绿色”产品与以往服务器相比,当前的服务器无论在性能、计算能力上都可“以一当十”,而能耗在不断降低。

除服务器外,还有网络设备、存储设备等,都有相应的虚拟化等新技术支持。

2.2 供电系统的节能研究

一项针对CIO的调查显示,UPS系统实际运行的负载情况都是在30%左右,目前数据中心面临着低效率运行的问题。图4为传统UPS在不同负载百分比情况下的效率示意图。

针对UPS电源系统运行现状,高可靠性、可用性及高适应性能力,保护环境及节能降耗等多维度考虑。在UPS系统设计规划时应从以下3方面予以考虑:

(1) 提高UPS的效率:提高UPS效率有两个方向。一个方向是提高UPS的最佳负载下的转换效率,一个是提高UPS在低负载下的转换效率。前者,业界的主流供应商正在努力把转换效率由88%提高到92%,未来要提高到96%。后者是一种隐形效率。

(2) UPS虚拟运行技术:这是一种配合虚拟运算的UPS运行管理技术。采用UPS虚拟运行技术,在低负载下,UPS组供电系统只保持少数UPS给负载供电,将其余UPS与服务器同步休眠,以此减少低负载下的UPS组的能耗。

(3) 改变服务器的供电方式:在数据中心以直流供电系统取代交流供电系统已有多年的探索。业界流传的教条是直流比交流节能。其理论根据是直流电源比UPS的电能转换环节少,因此节能。

2.3 制冷系统的节能研究

机房空调制冷系统对安全稳定运行起着不可或缺的作用,且空调能效因子(CLF)是PUE值中权重最大的因子,因此空调系统的节能就是降低PUE值最重要的方向。空调系统节能方面有7个方向可以研究[4]:

(1) 发展高能效机房空调:目前国内已经有了家用空调的能效标准,由低到高设定了5级能效标准,1代表能耗最低,5代表能耗最高。机房空调行业目前尚没有相应的节能等级标准,但国家相关部门已经开始着手制定,预计近年内将会进行颁布。

(2) 机房空调虚拟运行技术:服务器的虚拟运算有一项技术就是在运算低谷期将运算业务集中到少数服务器上进行运算而将其余服务器进行休眠来降低能耗。但这种节能方式需要机房空调的虚拟化运行配合才能让数据中心整体节能。

(3) 机房冷热气流隔离技术:该技术是通过保证空调的出、回风不混合,使机组的蒸发温度提高,从而提高了整个机组的能效。

(4) 高热密度解决空调方案:是一种通过将终端靠近IT设备热源的空调设计技术,由于其采用了提高回风温度、100%显热、低能耗风扇和缩短送风距离等技术来大大降低了空调的运行能耗。主要是用于服务器机架热密度超过5 kW/机柜的数据中心。

(5) 机架式空调技术:是一种将服务器机柜与机房空气实行完全隔离,实行机柜里制冷的一种空调设计技术。该技术最大限度地提高了冷热交换效率,大大地缩短了空调送风距离,从而最大限度地降低了PUE空调能效因子系数。

(6) 多冷媒利用技术:这是一种能采用自然冷媒摄取室外低温,从而降低空调能耗的技术方案,统称Free Cooling。自然冷媒包括风和水以及制冷剂等,最常用于室外低温的利用的方案是直接新风方式。

(7) 可再生能源空调:太阳能空调是未来主要的可再生能源发展方向。这是一种零碳排量的空调技术,它的应用速度取决于光伏材料效率提高和成本降低的速度。

3 某数据中心节能分析应用实例

某数据中心机房共3层。1楼能源中心机房,2~3楼为IT设备机房,楼顶为空调冷却系统。IT设备采用不间断电源系统供电,其中交流不间断电源共有8台UPS,直流不间断电源并机;共有2台通信电源;经测算结果:IT设备能耗为:881.68 kW;机房制冷系统能耗为:591.14 kW;UPS/通信电源供配电及照明、门禁、消防等辅助系统能耗为196.96 kW。由PUE模型分解公式:

总能耗 = IT设备能耗 + 空调制冷系统能耗 + 供配电及其他辅助系统能耗 = 881.68 + 591.14 + 196.96 = 1 669.78(kW);

PUE = ■ = ■ = 1.89;

DCiE = ■ = ■ = 52.9%;

空调能耗因子(CLF) = 0.66;供配电等其他能耗因子(PLF) = 0.22;

综上,该机房PUE值为1.9,相对于国内同行业,属于节能型机房。类比于国际先进机房(PUE值区间为1.6~1.8;空调能效因子(CLF)在0.45左右;供配电系统的能效因子(PLF)在0.11左右。)因此,各方面能耗有进一步提升的潜力。

4 结 论

PUE/DCiE指标模型为数据中心节能提供了基本方法和考核指标。数据中心节能必须建立PUE值检测和改善的长效机制,采用PDCA质量管理循环机制进行客观评价,使数据中心节能降耗走上良性循环之路。

主要参考文献

[1] 钟景华,朱利伟,等. 新一代绿色数据中心的规划与设计[M]. 北京:电子工业出版社,2011.

[2] GB/T 50378-2006,绿色建筑评价标准[S]. 2006.

[3] 钟景华,朱利伟,曹播. 绿色数据中心节能设计与建设初探[J]. 智能建筑与城市信息,2009(10):21-30.

[4] GB 50174-2008,电子信息系统机房设计标准[S]. 2006.