欢迎光临机房365,我们竭诚为您提供功能全方位提供机房解决方案!

关于我们 品牌优势 服务支持 联系我们

精密空调|机房精密空调|机房专用空调-机房365

旗下栏目: 艾默生空调 施耐德空调 海洛斯空调 史图斯空调 科士达空调 科华空调 克莱门特空调 华为空调 易事特空调 佳力图空调 约顿空调 依米康空调 阿尔西空调 思泰登高空调 优力空调 APC空调 大金空调 雷诺威空调 索克曼空调 海瑞弗空调 英维克空调 艾特网能空调 海悟空调 儒雅空调 卡洛斯空调 台达空调 伊顿空调 海瑞森空调 吉荣空调 清华同方空调

智能管理与协同 构筑绿色数据中心

发布时间:2018-04-02 15:23:23   点击:
随着移动互联网、物联网、云计算的大力发展,作为信息的重要载体,数据中心迎来一波新的建设浪潮。数据中心数量和规模迅速增长,其能源消耗
随着移动互联网、物联网、云计算的大力发展,作为信息的重要载体,数据中心迎来一波新的建设浪潮。数据中心数量和规模迅速增长,其能源消耗和运营成本问题日益突出。面对日益增长的能源消耗,绿色数据中心越来越受到人们的关注,各种常见的节能减排和能效提升的技术手段也得到了日益普遍的应用。然而由于能效监控管理的不完善,设备的不够智能化及缺乏联动协同等原因,能效的管理和优化还存在一些盲点,尚处在比较初级的阶段。华为率先推出的智慧数据中心,以数字化、智能化和网络化为理念,在原有节能减排的技术手段基础上,结合智能管理和协同,进一步将能效提升发挥到极致,给数据中心的节能减排和能效优化注入了一股新鲜的力量。

数据中心能耗和能效现状

为了有效开展数据中心节能工作,首先来了解一下数据中心能源利用的现状。

随着云计算的发展,数据中心的建设呈现向大型化发展的趋势。超过100个机架的数据中心比例逐年上升,2016年预计达到61%。而大型数据中心的电力消耗是相当惊人,比如对一个建设规模为2000个机架的数据中心来说,按照每个机架功率平均3kW计算,2000个机架最终负荷为3kW*2000=6000kW,每个小时耗电6000度,全年电力耗能为:6000kW*24小时/天*365天=52560000kWh,按照1元/KWh计算,全年的电费5256万元,加上数据中心的空调、新风、照明、其他电力能耗,对一个PUE为2的数据中心而言,电费为1.05亿元。

另根据美国斯坦福大学JonathanKoomey教授的一项调查显示,2010年全球数据中心电力消耗为2355亿度,约占全球电力消耗的1.3%。而在美国,这一比例更高,美国环境保护署的报告显示,2011年数据中心能源消耗占到了美国电网总量的2%,并且还将呈现每五年翻一番态势。中国的数据中心能耗也高速增长,显著高于世界的平均水平,据ICTResearch统计,2012我国数据中心能耗高达664.5亿度,占当年全国工业用电量的1.8%。根据预测,到2015年我国数据中心能耗预计高达1000亿度,相当于整个三峡水电站一年的发电量。

另一方面,数据中心能源效率普遍低下,能源浪费巨大,据工信部统计,目前,中国的数据中心的平均PUE值在2.2~3.0之间,而实际能耗可能远远高于这一数字。对企业而言,数据中心电费已成为很大一笔开支,大幅侵蚀企业的经营利润。如中国联通2012年营业收入407亿美元,利润仅为12亿美元,但其电费开支却高达17亿美元。

数据中心能源消耗巨大和能源利用效率低下的现状,揭示了数据中心行业存在着巨大的节能空间,绿色节能自然而然也就成为了当前和未来数据中心建设的一个主流需求。

节能减排,大势所趋

数据中心节能不仅仅是企业节能、降低成本的需要,还是国家开展节能减排工作的重要组成部分。在2011年的"十二五"规划中,政府提出了数据中心节能工作刻不容缓的指示。在《工业节能"十二五"规划》中明确指出,到2015年全国数据中心PUE值需达成下降8%的目标;2013年初,工信部联合五部委共同出台《关于数据中心建设布局的指导意见》(工信部联通(2013)13号),对我国数据中心建设、规划、布局制定了纲领性要求,确保新建数据中心PUE值达到1.5以下,原有改造的数据中心PUE值下降到2以下;2014年2月1日,上海率先颁布国内首个数据中心能耗限额的强制性地方标准,正式吹响了数据中心节能领域的先锋号角。而像以Google为代表的大型IT公司则纷纷在绿色数据中心领域先行了一步,推出了许多超低PUE绿色数据中心的成功实践。节能减排,毫无疑问成为了数据中心建设的大势所趋。

数据中心能源消耗构成

为了更好地开展数据中心节能减排工作,还需要了解数据中心能源消耗构成。据调查,按照各种用电设备在数据中心机房中所产生的功耗所占比例大小,数据中心机房的能耗构成因素及排序如下。

1)IT设备系统:由服务器、存储和网络通信设备等所构成的IT设备系统所产生的功耗约占数据中心机房所需总功耗的50%左右。其中服务器型设备占40%左右。另外的10%功耗基本上由存储设备和网络通信设备所“均分”。

1.数据中心提升能效常见技术手段IT设备系统能效提升

IT设备系统的能效提升不但能降低IT设备本身的能耗,还能降低为之服务的散热和供电系统的能耗,是从源头上降低数据中心能耗的方法。常见的手段有关闭空闲的应用和设备,提高IT设备的利用率。另外,当前谈论比较多的虚拟化也可通过整合服务器和存储设备的方式节省能源。对服务器虚拟化的原理是:客户可将四个20%运行效率的服务器合并成一个80%运行效率的服务器。尽管这个虚拟的服务器中的处理器需要消耗更多的电力,但处理器的耗电量仅为服务器耗电量的30%。所以80%的利用率增长却仅产生了30%的处理器耗电量。存储虚拟化[注]就是利用存储的非常先进的技术,比如说重复存储数据删除,让它尽量少存储空间,提高存储空间的利用效率,通过这些,就可以减少能源10%到20%。

2.制冷系统能效提升

在数据中心制冷系统是能耗最大的基础设施子系统,提升制冷系统的能效就是提升数据中心能效最主要的手段。当前比较常用的主要有以下措施:

1)气流管理。气流管理的首要措施是对机房室内环境进行有效的密封,这样不但可以有效阻止冷量泄露,还可有效控制相对湿度,减少不必要的加湿和除湿。若室内未妥善密封,提高效率的其它所有方法所起的作用将大打折扣。其次,对正面进气,背面排气的设备,可通过正确的摆放机柜来形成热通道/冷通道布局,使面对面排列的机柜的正面从同一冷通道吸收冷空气,热空气排入机柜背面的热通道,在此基础上,还可以通过冷热通道封闭,空闲机架加装盲板,走线孔增加密封毛刷来达到冷热气流的完美隔离,避免混合。

2)行级空调。行级空调直接安装在机柜排中,靠近服务器热源,实现近端制冷,一方面可以大大缩短空调风机的送风距离,降低功耗,另一方面还可以大幅提高空调的送风温度和回风温度,使空调运行在高效率的工况。

3)变频空调。数据中心精密空调往往根据IT设备的最大负荷来进行选型的。而现实中,IT设备大部分时间并不是运行在满载情况,对空调制冷量的需求并不需要选型的那么大,空调实际上长时间运转在部分负荷工况。因此,提高空调部分负荷效率是提升能效的主要手段。变频空调通过变频实现无极调速,从而更精确逼近负荷需求,可在部分负荷时保持高运行效率。以华为行级直流变频空调为例,它可实现10%-100%无级输出制冷量,且部分负荷时能效更高,综合能效比(IPLV)高达4.0,能很好地匹配数据中心负载特性,提升空调整体能效。

4)自然冷却。对于年平均气温较低的许多地区,可以采用适宜的自然冷却方式。当气温低至一定程度时,就可以部分或完全关闭压缩机制冷系统,而采用效率极高的自然冷却方式。自然冷却又可分为风侧和水侧自然冷却,如黑龙江移动就成功采用热转轮方式的风侧自然冷却方式,将PUE降低到1.2以下。

3.供配电系统能效提升

打造绿色数据中心还需要考虑供配电系统能效的提升。UPS系统是供配电系统中能耗最大的环节,因此必须关注UPS系统的效率提升。其能效提升可通过以下三个途径来实现。

1)选用更高效的高频UPS。工频UPS因内置用于升压的输出变压器,损耗远远大于高频UPS,宣称效率也仅能达到93%;而且工频机输入谐波大,需附加相应的谐波治理设备,进一步降低了运行效率;谐波及低输入功率因数也会导致输入线缆损耗增大。高频机通过技术的改进取消了变压器,运行效率最可达到96%。

2)关注UPS实际运行负载率下效率值。UPS系统为确保可靠性,需要配置为冗余系统,运行负载率一般在40%以下,所以应关注UPS在此负载段的效率。华为UPS通过精细化设计,20%额定值是效率可达到95%,在40%额定载时效率可达到96%。

3)按需部署提升UPS运行负载率。采用模块化的UPS,在机房投入运行时,先期可以按照实际的负载配备模块化的UPS,随着设备的增加随时增加UPS的模块(热拔插不用停电)。比如一个100平米机房,按照设计容量需要200KW,在刚投入使用时只有80KW的负载,可以采购一台240KW的模块式UPS(由6个40KW的模块组成),但先配3个模块,得到的是一个120KW的UPS,随着负载的增加,随时增加模块,提高UPS的负载率,实现UPS的高效运行

当然,供配电系统节能还有其他辅助手段,比如减小变压器与UPS的送电距离,减小UPS输出到机柜的送电距离,从而降低母线或电缆在电流传输中的损耗;采用比传统光源更节能的智能LED照明系统,且自动做到人走灯灭,提高照明系统能效。

数据中心能效优化方面存在的问题

数据中心能效优化虽然有各种各样的技术手段,但从当前国内数据中心能源效率现状来看,能效优化并不是做得十分彻底,能效低的现象依然普遍,能效进一步提升空间依然十分巨大。

首先,目前绝大多数数据中心管理系统功能非常不完善,智能满足基本监控的需求。而能效更是基本处于无监管状态,数据中心具体消耗了多少能量,其中各个子系统如服务器、存储、空调室内机、空调室外机、UPS分别消耗了多少能量,实时PUE数据是怎样的,历史PUE数据如何,哪里存在能源浪费的可能,能效优化的空间有多大,这些基本上都不可知。

其次,数据中心虽然采用了很多先进的节能设备,但是这些设备还不够智能,基本上处于各自为政、孤军奋战的阶段,不能很好地协同。如作为能源消耗的源头IT设备,即我们俗称的L2层设备,基本上跟L1层的风火水电即基础设施处于相互隔离的状态,L2不能及时地将自身对电力和散热的需求传递给L1,L1也无法准确地判断L2对供电和制冷的需求。此外,在基础设施内部,如数据中心的“能耗大户”制冷系统,其室内末端和室外主机也是互不通讯的,他们之间缺乏很好的联动协同机制,无法做到高效制冷。

智慧数据中心在能效优化方面的作用

华为推出的智慧数据中心(+微信关注网络世界),以数字化、智能化、网络化为理念,通过数字化手段,将原来一个个粗笨的设备,如机柜、配电柜、UPS、空调、电池等全部变成智能设备,同时通过组网,将这些设备组成一个系统,统一地管理起来,并通过能效最优的算法,进行统一的调度和协同,做到系统效率最大化。

智慧数据中心首先具有一个包括能效管理模块的强大的管理系统。能效管理的前提通过部署在各智能设备的传感器和感知设备及网络采集准确详细的电能等基础参数,如智能IDC机柜,对电能和环境数据(温度、湿度、烟雾等)进行机柜级感知。智能监控单元一方面收集感知数据通过以太网网络交换机连接管控中心服务器,另一方面对机柜相关供电和散热部件(如风机)进行实时控制,达到节能的目的。各机柜之间采用Zigbee自组网传输感知数据,方便新的传感设备加入网络中。对收集的数据进行全面实时的PUE计算和分析,获得机柜级、模块级、区域级和机房级PUE数据,同时考虑PUE数据的时间和空间特性,获取动态温度云图和热点可视化,根据数据分析结果及PUE基础数据,生成直观的数据中心温度云图,提供针对性的供电和制冷策略,为数据中心节能决策提供目标方向和论证依据。比如通过温度云图,发现某一区域温度偏低,则可相应调动该区域的空调,减少制冷量输出,提高该区域的温度,达到提升能效的目的。

智慧数据中心的另一个特征是各设备智能化后,整个数据中心成为一个大系统,各设备能实现很好的联动,相互协同,做到数据中心整体能效最优化。这里可以通过几个具体的例子,来说明协同在提升能效方面的作用。

首先是基础设施层(L1)与IT层(L2)的协同。由于业务的变化,IT设备的负载率时刻在发生变化,能耗也会有较大的波动,那么通过CPU、内存等实时数据,结合历史数据,便可以预测业务的变化情况,时段性的物理关闭某些闲置的服务器,并适当的调整各级电源供应策略,相应关闭或休眠为这些服务器供电的电源模块,提高供配电效率。通过传感设备收集实时全面的服务器运行温度数据,精确计算并预测制冷需求,结合智能的空调设备(如行级直流变频空调),关闭或调低为这些服务器散热的风机或空调,提高制冷系统的效率。

其次是基础设施内部各设备之间的协同。华为推出的iCooling制冷系统,便可以实现制冷系统内部各设备之间的联动协同。比如对于大型数据中心,一般采用冷冻水末端空调配合机房外冷水机组的制冷方案。传统的做法中,空调末端与冷水机组之间相互是不通讯的,冷水机组的调节是通过水温来进行传递的。而从服务器负载的变化到冷水机组的水温变化,中间需要经过很长的路径:由IT设备负载的变化,到功耗和散热量的不同,到服务器进出风温度变化,到空调末端的送回风温度变化,再到空调末端内水温的变化,最终引起冷水机组水温的变化。这个变化是非常缓慢,有较大的时延。所以传统的做法中,数据中心冷水机组的调节很不及时和精确的。iCooling制冷系统不但可以将整个IT设备负载变化情况及时反馈给空调末端,也可以及时反馈到冷水机组,使得制冷系统中耗能最大的冷水机组可以采取针对性的供冷策略,实现端到端的按需制冷,提升能效。

数据中心智能化后,不光是制冷系统可以实现协同,供配电系统的协同也成为了可能。华为推出的iPower系统,可以对整个供配电系统进行端到端精细化的管理,根据IT负载的需求,实行针对性的能效最优化的供电策。iBattery可以对电池的状态、充放电过程进行精细化管理,在提升运维效率的同时,实现供配电系统的精细化节能。

数据中心节能是一个综合性的工程,很难一蹴而就。在传统上关注的制冷系统与供电系统的硬件高效化改造基础上,以数字化、智能化、网络化为基础的智慧数据中心,通过智能管理和协同机制,必将在构筑绿色数据中心和提升能效方面大放异彩。

文章来源:大金机房精密空调http://www.jifang365.com/jingmikongtiao/daikin.html

注:文章内容和图片均来源于网络,只起到信息的传递,不是用于商业,如有侵权请联系删除!

最火资讯