绿色数据中心建设势在必行-雄风HK PDU-机房安全配电专家

雄风HK pdu

配电专家 pdu
 
新闻中心 技术专栏 成功案例 客户服务 诚邀加盟 联系我们 走进雄风
 

新闻中心

 

HK  首页 > 新闻中心  >介绍
绿色数据中心建设势在必行
 
          

绿色数据中心建设势在必行

22报道:回顾数据中心的发展历史,每一个阶段都有主要的挑战和关注的焦点。数据中心就是在克服这些挑战的过程中不断前进的。今天,数据中心在供电和散热方面面临的严重挑战,已成为新的前进障碍。根据美国能源部2007年的统计,2000年以来美国各数据中心使用的电力已经增加了一倍以上,总电费达到约100亿美元;2006年,美国服务器和数据中心使用的电力估计达到590亿度(kWh) ,与美国交通工具制造业(制造汽车、飞机、卡车和轮船)消耗的电力大致相当。如果不加控制,到2010年还将增加75%.由此可见,全球数据中心在能量消耗方面面临多么严峻的挑战,只有采取先进的节能技术、建设绿色数据中心方能应对这些挑战,才能推动数据中心技术继续前进。

数据中心能耗的定量分析

为了分析数据中心的能效水平、找到问题的症结,必须建立定量指标来测量数据中心的能效,以便实时测量和监视数据中心的能效、对比不同数据中心的能效水平,选择有利于节能技术和/或最佳实践。

当前测量数据中心的能效水平的主要是电源使用效率(PUE) 指标。 它考虑了数据中心里供电、散热系统和IT设备所各自消耗的能量,得到了绿色电网行业联盟(The Green Grid) 等多个权威组织的支持。绿色网格联盟定义了PUE的具体计算公式:

PUE = 数据中心总负载/IT设备负载

PUE是一个比率,表示数据中心中IT设备负载与数据中心机房内所有设备的总负载之比,PUE越接近1说明输入到数据中心的电能几乎全部用于IT设备本身。PUE越大说明越多的电能都被电源、PDU配电设备、服务器风扇、UPS、空调等供电散热设备给消耗了。今天,PUE已经成为国际上比较通行的数据中心能源使用效率衡量指标。据统计,国外先进的机房PUE值可以达到1.5左右,而我国的PUE平均值则在2.5以上。这意味着IT设备每耗一度电,就有多达1.5度电被其它机房设备消耗掉了。按照同样的计算公式,如果IT设备耗电量相同,PUE=2.5(国内平均水平) 与 PUE=1.5 (目前先进水平)相比较,电源、PDU配电设备、服务器风扇、UPS、空调等供电散热设备的耗电量前者是后者的3倍!

过高的PDU定量地描述了数据中心低能效的现实、说明了能耗急剧增加的原因。不仅如此,低能效还大大增加了企业的成本负担,造成严重的环境问题,制约企业以至人类社会的可持续发展。有些科学家估计全球计算机设备每年消耗4.15 亿吨煤、排放8.64 亿吨CO2 温室气体,以及相应的资源消耗和污水、热量、温室气体排放。由此可见,降低PUE、提高能效,建设绿色数据中心是一个多么紧迫的任务!

建设绿色数据中心的战略

 [1] 中指出行之有效的绿色数据中心建设战略的核心要点是:建立覆盖数据中心整个生命周期的能效规划、从节能和增效两方面解决高能耗难题、采用从芯片到冷却器综合性的解决方案。在执行这一战略时要以降低PUE为核心分步实施,特别是要在数据中心各个层次采用先进的技术和行之有效的最佳实践。

降低能耗与提高能效双管齐下

从数据中心设计角度来分析,节能和增效两者是相辅相成的。解决高能耗难题必须双管齐下、同时从这两方面着手,才能取得最大的成效。首先要根据应用需求确定数据中心的IT设备配置,如服务器数量、存储容量等,并为未来发展留有充分的余地。在IT设备选型过程中从厂商获得有关资料、大致估计出IT设备的额定总功耗。此时,要重点考虑的是节能:通过选择高能效服务器等IT设备、考虑采用虚拟化技术等措施降低IT设备的总功耗。由于IT设备的发热量与功耗直接相关,也能够决定机房供电设备的配置及其耗电量、从而估算出当前的PUE值。此时,要重点考虑的是增效,采用种种有效的技术和最佳实践来降低供电损失、提高散热效率,从而降低PUE值、提高数据中心的电能使用效率。简言之,在在计算PUE的公式中有分子和分母两个因子。分母表示IT设备耗电量,它首先取决于企业或机构的应用需求,关键是如何选择最佳的设备(如刀片服务器)和技术(如虚拟化、先进的电源管理技术等)以最低的耗电量来满足应用需求。IT设备配置设计完成前,要尽可能节能。设计完成后其耗电量机房设计其实基本上是无能为力的。对机房设施设计而言,主要配置合适的供电散热设备(余量和冗余不能太大),尽可能采用先进技术和合理的布局提高供电散热的效率、从而降低数据中心的总耗电量,缩小分子的值、降低PUE值,达到提高能效的目的。

采用综合性的解决方案

企业或机构数据中心当前在供电和散热方面面临的挑战贯穿于数据中心内部从IT设备的处理器和其它器件、到服务器和存储等IT设备、到放置各种设备的机架、直到整个机房的多层次挑战。任何试图从某一层次孤立地解决问题的战略,或者只具有某一层次技术的厂商都不可能取得成功。实践证明采取综合性的技术能够有效地把PUE从过高的3.0、降低到平均水平2.0、甚至很高的1.5水平。

 [1] 以惠普公司在惠普在数据中心各个层次采用的高能效技术为背景,全面介绍建设绿色数据中心的综合性解决方案。下面介绍一些突出的例子。

在处理器层次,SPEC Power测量每瓦电力提供的SPECintSPECfp数量,已经成为评测处理器能效的重要指标。近年来IntelAMD在它们的最现代的处理器上采用低电压和低功耗、处理器p-State、多核和处理器虚拟化等一系列创新技术节能和降低发热量。惠普等公司成功地在它们的服务器产品采用这些处理器,大大提高了服务器每消耗1瓦电力能够提供的整数和浮点计算能力(即SPEC Power指标)。

在服务器层次,惠普等厂商使用各种电源管理技术可以明显地提高能效。例如,动态功率封顶技术,它可以在不影响性能的前提下,通过服务器供电的动态配置或功率封顶(如峰值功率封顶或平均功率封顶),帮助客户重新分配数据中心的电力和散热资源。这种技术通过有效地对每一台服务器能耗的准确控制,避免了能源的过度供应。采用此项技术后,相同的能源配置和电力设施可服务相当于原来三倍数量的服务器。按美国的电费计算,这相当于每个1兆瓦级数据中心即可节省1600万美元的成本支出。

另一种可应用于提高刀片服务器散热能力的创新技术是热量智控技术(Thermal Logic)。其设计的核心理念是自适应性,可根据热量分布和环境温度的变化,有针对性地自动调整并改变电源负载和制冷处理,提供在不降低处理器性能的前提下节约30%以上用电量的实效。

在机架层次,目前液体冷却技术正在普及。例如,惠普提供模块化散热系统(MCS)就是一个典型的液体冷却机架产品。它通过使用水冷和气冷结合的方式、可以把机架的散热能力提高3倍以上,使之能够真正满载安全稳定运行,支持高密度计算。

在数据中心层次,一个重要趋势是采用紧耦合散热技术。例如,惠普公司通过采用基于计算流体动力学(CFD)的静态和动态智能散热技术,优化空调配置与机架布局:把散热资源用于有真正需要的地方,可以将电源和散热成本降低15%45%

绿色数据中心战略的实施步骤

实施绿色数据中心战略是一个循序渐进的过程,可以先从一些基本的变更入手,然后逐步深入。整个过程可分为四步:

第一步,应用电源管理、虚拟化和整合技术:在多数情况下,启用服务器电源管理功能可以立杆见影地节省大量电源成本。借助服务器和存储虚拟化技术,可以集中共享服务器、存储设备以及其它IT资产,进而对硬件设备进行整合,以减少环境中物理服务器和存储系统的数量,降低电源和散热成本;

第二步,应用最佳实践:多年来,人们在数据中心实践中积累了大量节能省电的经验,被称为数据中心节能的“最佳实践”。例如,任何人都很容易给机架加上空白面板,密封地板内的线缆切口,合理调整活动地板高度,整理活动地板下电缆、消除未使用的电缆,将设备排成长排、中间不留缺口,采用冷热过道设计,在服务器等设备上采用节能模式等等。这些最佳实践在提高数据中心的实施往往是免费的,却可以达到20%左右的节能效果(详见[1]);

第三步,调节数据中心的环境:这一步的重点将转移到对数据中心的整体调节和优化上。借助计算流体动力学(CFD)及其它工程设计工具,数据中心管理者可以更好地了解电源和散热问题,并及时解决问题。例如,CFD可用来确定设备和地板砖的最佳布局,以提高效率,节省成本;

第四步,针对具体的热负荷配置紧耦合散热解决方案:这一步是为了将散热解决方案与各个IT 设备的发热量紧密联系起来。根据具体的发热量来提供散热能力,可以大大提高散热解决方案的效率;

展望未来,随着二氧化碳排放量剧增、对全球气候变暖的影响更加明显,企业或机构无疑都将受到越来越多成本约束和环境法规限制。作为人类节能减排活动的重要组成部分,人们必将越来越努力建设高能效的绿色数据中心,创建可持续发展的计算环境。

  pdu插座在线联系-www.hkline.com.cn
点击与①号客服(毛先生)联系
97516781  
点击与②号客服(赵先生)联系
97516782
点击与③号客服(毛先生)联系
97516783
点击与④号客服(陈小姐)联系
97516784
点击与⑤号客服(刘先生)联系
97516785
MSN交谈
hkline1@live.cn
MSN交谈
hkline2@live.cn
 
地址:北京大兴工业园区广茂大街68号 邮编:102600
 

E-Mail:sales@hkline.com.cn 北京雄景科技有限公司 版权所有 京ICP号:09090997

Copyright hero-king Inc. All Rights Reserved