发表评论分享按钮

降低数据中心能耗的7种极端方法

2011/06/16

  当前,在数据中心运营成本中,增长最快、所占份额最大的是能源成本,而这些能源又主要是被服务器和冷却系统所消耗。因此,对于那些正试图削减运营成本的数据中心经理们而言,降低数据中心能耗看上去是最有效的途径。不幸的是,目前大多数高效的节能技术都需要相当可观的前期投资,并且在数年后才会带来回报。

  然而,人们却忽视了一些几乎不需要什么成本的技术,原因在于这些技术看起来不切实际,或是过于极端。而我们在下文中即将为大家展示的8种节能方法,已经在实际的数据中心环境中测试过,并且被证明十分有效。其中一些方法几乎不需要任何投资,大家可以立即采用。另外一些方法可能需要一些资金,但是与传统的IT资本支出回报率相比,获得回报的周期要更短。

  数据中心能源效率的衡量标准是能源利用率(PUE)。PUE指数据中心总电力消耗量与转化为有效计算任务的电力消耗的比值。PUE值越低越好,1.0是一个理想数值。2.0意味着输入数据中心的2瓦电力中只有1瓦输入到服务器,损失的电力转化为了热能。

  以下这些技术或许并不能降低你的 PUE值,但是你可以通过检查每月的账单来评估它们的效率。节约资金才是真正的目的所在。

  微软位于爱尔兰都柏林的数据中心,采用空气冷却,PUE值1.25。

  调高机房温度

  你在今天下午就可以使用这种最简单的节能方法——调高数据中心恒温器的温度设定值。传统观念认为,数据中心温度应当设定在华氏68度(摄氏20度)以下。人们认为,这种温度水平能够延长设备的使用寿命,万一冷却系统失灵,管理员也可以获得更多的反应时间。

  这种普遍的观点当然是有道理的,因为服务器组件如果发生故障,尤其是硬盘发生故障,将会导致运行温度上升。但是,近些年来,IT经济已经跨越了一个重要阈值:服务器运营成本通常会超过购置成本。这使得削减运营成本的优先权要高于硬件保护。

  在去年召开的GreenNet大会上,谷歌的“绿色能源主管”Bill Weihl介绍了谷歌提高数据中心温度设置的经验。他表示,华氏80度(摄氏27度)是新的安全设置温度。不过你的数据中心需要首先满足一个简单的先决条件:尽可能地将冷却用的冷空气与冷却后产生的热空气相隔离,如果需要,可以使用厚塑料门帘或是隔热板。

  尽管谷歌称华氏80度是安全的温度,但是微软的经验告诉我们,可以将温度设置得更高些。微软在爱尔兰都柏林的数据中心使用的是“无冷却器”模式,它们用免费的外部空气进行冷却,服务器进风口的温度高达华氏95度(摄氏35度)。须要注意的是,随着设定温度的提高,会出现一个收益递减点。因为服务器风扇转速的加快将导致能源消耗增长。

  关闭闲置服务器

  服务器时刻处于准备状态所带来的“商业灵活性”,是否与它们消耗的能源成本等值呢?不等值的话,为什么不关闭整个服务器呢?如果关闭了服务器,那么你将获得最低的能源消耗值——0。

  当然,你首先需要面对的是那些异议人士提出的反对意见。他们可能会说,重新启动会降低服务器的平均寿命,理由是电压会加载在主板电容器等一些非热插拔组件上。但是,这种想法已经被证明是错误的。实际情况是,服务器的组件与汽车和医疗设备等一些频繁启动的设备所用的组件是相同的。没有证据能够证明频繁启动将降低服务器的MTBF(平均故障间隔时间)。

  第二个错误认识是,服务器启动需要很长时间。对于这种情况,你可以通过关闭启动时的诊断检查,从硬盘镜像启动,以及利用一些硬件具有的热启动功能缩短启动时间。

  第三种反对意见是:用户不希望等待——无论启动速度有多快。然而,即使程序申请速度非常慢,大多数应用架构都不会拒绝新用户,这样一来,用户根本意识不到他们是在等待服务器启动。事实证明,当应用受到使用人数限制影响时,只要能够向用户发出“我们正在启动更多的服务器以提高你的申请速度”这一信息,用户是愿意等待的。

  使用外部空气进行冷却

  如果外部空气温度较低,你完全可以将它作为冷却空气来源而关掉那些高能耗的制冷系统。微软设在爱尔兰的数据中心使用的就是这种方法。

  与方法1相比,这种方法需要花费一些精力。你必须重新布置通风管道,以让外部空气吹入数据中心内。此外,还需要安装一些基本的安全设备,如空气过滤器、干燥器、防火风闸和温度传感器,以确保外部空气不会损坏精密的电子设备。

  英特尔曾做过一个试验,在两组服务器中,第一组使用传统的冷却器进行降温,第二组使用外部空气冷却系统与冷却器联合冷却方式。两组服务器均运行了十个月,其中,第二组服务器有91%的时间使用的是外部空气冷却,从而降低了74%的能源消耗。不过,英特尔发现使用外部空气冷却的服务器上积有大量灰尘,这表明该系统除需要安装大颗粒杂质过滤器外,还需要安装一个细颗粒杂质过滤器。此外,由于需要频繁更换过滤器,因此在实际使用中需要采用易清洁并可反复使用的过滤器。

  尽管积灰严重,温度变化范围较大,但是英特尔发现使用外部空气冷却的服务器故障率并没有增加。据此,以一个功率为10兆瓦数据中心为例,每年可节约冷却成本300万美元,以及7600万加仑水。要知道,在某些地区水的价格非常高。

  热空气再利用

  为什么不将数据中心冷却后产生的热空气用于办公室供暖呢?那样,你就可能不再需要目前的取暖系统。同样,也可以使用办公室里温度相对低的空气为数据中心降温。

  你是否担心数据中心电子设备在产生热量时会释放出有害物质?大可不必。如今符合《关于限制在电子电器设备中使用某些有害成分的规章》(RoHS)的服务器在生产时,已经不再使用污染环境的镉、铅、水银和多溴化合物等材料了。

  与外部空气冷却方法一样,你需要的也是改造风扇、通风管道和恒温器等设施。重新布置你的取暖系统可能需要花费一周的时间,但是由于成本很低,你在一年内,甚至更短的时间内即可获得收益。例如,IBM位于瑞士Uitikon的数据中心为当地方居民免费供暖,节约的能源成本相当于80户居民的取暖费用。TelecityGroup Paris甚至将数据中心冷却后产生的热空气常年供应一些温室,以支持气候变化研究。

  配置SSD

  由于读取速度快、功耗低、发热量小,因此SSD(固态硬盘)在上网本、平板电脑和笔记本电脑上非常流行。SSD也可以使用在服务器上,但是其成本高、可靠性低等缺点阻碍了其在服务器上的部署。幸运的是,SSD的价格在近两年出现了大幅下降,数据中心可通过部署SSD实现快速节能,你只需将一些应用存储在SSD上即可。如果配置合理,SSD可大幅降低磁盘阵列的能源和冷却成本。其大约可以减少50%的电力消耗,发热量几乎为零。

  SSD无法克服的一个问题是写入操作次数有限。目前适合服务器存储的单层单元(SLC)固态硬盘的写入次数约为500万次。低成本的消费级多层单元(MLC)固态硬盘,虽然容量比SLC固态硬盘要大,但是寿命仅为后者的十分之一。

  好消息是,你可以从市面上买到接口兼容的固态硬盘,以替代现有的高能耗、高发热量的机械硬盘。考虑到SSD价格较贵,因此,只选择将那些需要频繁读取的数据集存储在SSD上,如流视频文件。这样就不会遇到SSD的写入次数限制问题。除了降低能源和冷却成本外,启动速度也将大幅提升。

  此外,在选择固态硬盘时,应当选择服务器专用固态硬盘,而不要选择台式机专用固态硬盘。服务器专用固态硬盘为了提高吞吐量,多采用多通道架构。常用的SATA 2.0接口的固态硬盘传输速率为3Gbps,而日立与英特尔联合推出的Ultrastar高端SAS固态硬盘的传输速率可达到6Gbps,容量可达400GB。尽管SSD 还存在一些设计缺陷,但这主要涉及到台式机和笔记本电脑固态硬盘的BIOS密码和加密问题,而服务器专用固态硬盘根本不存在这方面的问题。

  使用直流电

  是的,在数据中心重新使用直流电。道理很简单:服务器在内部使用的是直流电,这样可能消除为服务器供电时将交流电转换为直流电这一环节,实现迅速节能。

  在早些年,直流电在数据中心中非常流行。因为当时数据中心的服务器电源转换效率仅为75%。但是随着电源转换效率的提高,数据中心开始采用效率更高的208伏交流电。到2007年,直流电已经不再流行。然而在2009年,直流电又重新流行起来,这要归功于高电压数据中心产品的出现。

  在早期的数据中心当中,电力公司输出的 16000伏交流电先被转换为440伏交流电,然后再转换为220伏交流电,最后再转换为110伏交流电后才提供给服务器,每一次变压都会浪费一些电力。由于转换率低于百分之百,损失的电力被转化为热能(由于需要冷却系统将这些热量散掉,因此将导致更多的电费开支)。直接转换为 208 伏交流电可以减少一次变压,当时服务器内置电源最大效率为95%。

  到了2009年,新的数据中心设备可以将电力公司输出的13000伏交流电直接转换为575 伏直流电输入到服务器机架上。服务器机架将575 伏直流电一次性转换为48 伏直流电后直接为机架上的服务器供电。每一次转换时的效率都是老式AC 变压技术的两倍,并且转化的热量也更少。尽管厂商宣称可以节约50%的能耗,不过大多数专家认为节约能耗25%更为可信。

  该方法需要一些资金投入,不过所涉及的技术并不复杂,并且已经被证实十分有效。

  将热量送入大海

  与地温冷却系统不同,河流和大海可以无限地吸收数据中心排出的热量。因此,如果你的数据中心紧邻海边、大型湖泊或是内陆水道,那就真是得天独厚了。

  “瑞典计算机”网站在去年秋天曾经报道称:谷歌在芬兰Hamina将一个纸浆厂改造成了一个采用这种冷却方式的数据中心。该数据中心将冰冷的波罗的海海水作为唯一的冷却方式。与此同时,这些海水还作为数据中心的紧急消防用水。谷歌的实践证明,该方案具有极高的可靠性。由于原纸浆厂已经铺设了用于从波罗的海抽取海水的直径2英尺的管道,因此谷歌在改造时省去了不少开销。

  淡水湖也可以用于冷却数据中心。美国康奈尔大学位于纽约伊萨卡的校区,利用附近的卡尤加湖为其数据中心和整个校园提供冷却用水。为此,该校区在2000年率先建立起了一个名为“湖水冷却系统”的冷却设施。该设施每小时可抽取3.5万加仑水,并将这些华氏39度的湖水输送至2.5英里处的校园内。

  无论淡水还是海水冷却系统,都需要一个昂贵的组件——用于冷却数据中心的热交换器。这种热交换器可将用于直接冷却数据中心的冷却水与外部抽取过来的天然冷却水隔离。这种隔离是必须的,万一出现泄漏,既可保护环境,也可以保护精密的服务器设备。除了昂贵的热交换器外,海水或湖水冷却系统只需要一些普通的水管。

  你希望节省多少资金呢?这些技术的价值在于它们并不互相排斥,你可以同时使用多种方法来实现你的短期目标和长期目标,你还可以先采用最简单的办法——提高数据中心的温度设置,然后再根据节约情况评估一下剩余的其他六种节能方法。

  谷歌位于比利时的数据中心,无制冷设备,完全借助室外空气冷却,PUE值低于1.16。

网界网



相关阅读:
Teradata CTO宝立明:CIO数据分析需勇于创新 2011-05-25
Radware:IDC云化渐热 应用交付虚拟化正逢时 2011-05-23
数据中心虚拟化不断深入 网络则“方向未明” 2011-05-23
构建电信运营网络数据中心 应对数据难题 2011-05-17
数据中心效率(PUE)计算指南 2011-05-17

热点专题:  数据中心