与5年前相比,逻辑服务器数量在增加,但物理服务器数量在减少。与此同时,电源和冷却的成本并没有停滞不前。对数据中心的预算来说,数据中心能耗永远是一个痛。很久以前,康柏数据中心规模的工程实验室,每个月电费都需要几十万美元。
数据中心电力消耗有两个主要来源:硬件(服务器,存储和网络)和冷却系统。机器产生热量,需要消耗更多能量进行制冷,排出热空气并保持适当湿度。有很多方法来保持进气温度合理性。可以采用水冷式机架和行级冷却单元,将冷空气传送到最需要的地方——服务器入口。但这些方法不适用于一般用途。
通常我们需要仔细考虑热和冷通道设计,尽管增加一些初始投资,但可以降低整体功耗和散热费用。或许令人惊奇地,这些设计较为小巧,两个单元就可以对大约8机架可进行冷却,他们采用水冷,冷冻水单元可以安装在屋顶也可以或像正常空调器一样安装,通过压力来排气和进气。
一般来说,冷冻水冷却单元是一个较好的长期赌注。在冷风单元运行中,对相关建筑设计以及潜在堵塞等都提出了较高要求。你的投资取决于机架密度和实际设备,但行级散热在数据中心绝对会有一席之地。
当然我们还有大量空调机组,它们用螺栓固定在墙壁或屋顶上,不断对外排出68华氏度空气,无论通过专用导管或活动地板,将热空气从房间置换出来。这就是传统的方法。但今天谈论最多的问题不是采用什么样的制冷系统,而是数据中心的运行温度。
此前数据中心环境运行温度是68华氏度(相当于20℃,我们国家标准规定是23±1℃)。也许室外温度都已经达到100华氏度(38℃),但对数据中心服务器进行维护,你还要穿上大衣,炎热会让服务器感觉“愤怒”。尽管如此,温度68华氏度也是没有必要的。如果你看看许多服务器和网络设备所推荐工作温度,会说这些设备工作温度不宜超过90~95华氏度,这已经远离了68华氏度。
纠错能力是问题的一部分。如果环境温度设置在68华氏度,如遇制冷故障导致环境温度上升,与85华氏度相比,我们会有更长时间来应对。在一个大空间内,庞大制冷机组停机会导致这个房间在数分钟内达到临界温度,如此,冷却系统必须加倍努力工作才可以让温度恢复正常,这通常是一个非常糟糕的一天。这是不惜代价要加以避免的。
并不是说我们不顾服务器轻率地升高服务器的温度,但事实是,现在的服务器已经可以很好适应环境,可以适应80华氏度的温度,因此这将取决于冷气覆盖和冗余度要求。这可能是一个好主意:看看所运行硬件以及它可以接受的温度范围,将温控器适当调高几度,尤其是当外面的环境温度比较低时。