为超融合架构选择合适的数据中心冷却系统

日期:2017-3-29作者:Robert McFarlane

【TechTarget中国原创】

虽然超融合基础架构会带来很多好处,比如精简的IT管理方法,但从数据中心散热的角度来看,它也同时带来了一些特殊的挑战。

当把超融合基础架构的机器安装到机柜上的时候,会在密集的冷却环境中制造出高热量密度。保持散热通道的畅通无阻非常重要,但是要保证正常的温度下给予机器足够的散热风,还要让热量尽量远离这些机器是比较困难的。

其实对于其他IT硬件来说这个原则是一样的,但是鉴于高度融合基础架构(HCI)的密集性以及安装的简易性,你会发现要在数据中心打造一个有效率的散热系统其实是很困难的。很多数据中心在建立之初并没有考虑到这种高度融合的系统的散热问题,但是只要你使用合适的技术,你还是可以让你的数据中心尽可能地有效。

HCI的电源通常来说可以达到1000瓦(W)以上,这会产生很多热量。一个2U高的HCI机器可能会达到25-30KW的功耗,相对来说传统的1U服务器只会产生350-500瓦的功耗而已。即使你已经做了很多减少空气混合的改造(例如分离热通道和冷通道,使用空白面板和保持密闭度),可能理论上已经能够达到冷却的要求,但是实际上你可能还是达不到要求的温度,

什么冷却系统对于HCI系统来说是最好的呢?

美国采暖、制冷与空调工程师学会(ASHRAE)建议的入风温度是80.6华氏度(或27度摄氏度),这不仅仅能节省能源,还能增加空调的制冷能力。更高的进风温度会导致空调的回风温度也会更高。一台典型的20吨机房空调(CRAC)运行在84 kW功率和75华氏度进风温度的情况下会提供137kW的冷却能力以及90华氏度的回风。这里的差异还是蛮大的,但是这并不能保证这些冷却的能力最终都能利用到计算机设备上去。

我们一直都在努力坚持原创.......请不要一声不吭,就悄悄拿走。

我原创,你原创,我们的内容世界才会更加精彩!

【所有原创内容版权均属TechTarget,欢迎大家转发分享。但未经授权,严禁任何媒体(平面媒体、网络媒体、自媒体等)以及微信公众号复制、转载、摘编或以其他方式进行使用。】

微信公众号

TechTarget微信公众号二维码

TechTarget

官方微博

TechTarget中国官方微博二维码

TechTarget中国

作者>更多

Robert McFarlane
Robert McFarlane

数据中心专家

数据中心冷却>更多

相关推荐

技术手册>更多

  • 数据中心存储:现在与未来

    随着IT技术的发展,数据中心存储类型选项多样化趋势正在加重:从开源到专有,从本地到云端,从iSCSI到Ceph等等。如何选择适合自己的?另外,作为虚拟化的另外一种形式,容器发展如火如荼,但它本身却面临着存储这一重要问题,可有了解决办法?技术仍在向前发展,一些新的存储技术正在引起行业人士的注意,比如的SSD、超融合存储、数据感知存储等... ...

  • 数据中心故障排除技巧Top5

    当数据中心出现问题时,从服务器到网络到存储都有可能成为罪魁祸首。当然,诊断方法也非常多:查看日志文件的变化,检查硬件损坏或诊断网络瓶颈问题。知道IT基础设施的来龙去脉,梳理服务器和存储系统——无论是本地还是云端——可以帮你指出正确的方向。本期技术手册分享五个数据中心故障排除技巧,帮助IT管理员识别并解决常见的问题。

  • Exchange服务指南

    在你计划将完成Exchange 2013迁移的同时,Exchange 2016已经在路上了。作为微软知名的企业邮箱软件,确保Exchange正常健康地运行非常重要。

  • 为什么使用DevOps

    有多种不同的技术变革都在深刻影响着企业IT部门工作的方式。虚拟化,云计算,软件定义一切,大数据,一切皆服务——这些都迫使IT做出改变,并关注新的工作方案,DevOps。

TechTarget

最新资源
  • 安全
  • 存储
  • 数据库
  • 虚拟化
  • 网络
  • 服务器
【TechTarget中国原创】

虽然超融合基础架构会带来很多好处,比如精简的IT管理方法,但从数据中心散热的角度来看,它也同时带来了一些特殊的挑战。

当把超融合基础架构的机器安装到机柜上的时候,会在密集的冷却环境中制造出高热量密度。保持散热通道的畅通无阻非常重要,但是要保证正常的温度下给予机器足够的散热风,还要让热量尽量远离这些机器是比较困难的。

其实对于其他IT硬件来说这个原则是一样的,但是鉴于高度融合基础架构(HCI)的密集性以及安装的简易性,你会发现要在数据中心打造一个有效率的散热系统其实是很困难的。很多数据中心在建立之初并没有考虑到这种高度融合的系统的散热问题,但是只要你使用合适的技术,你还是可以让你的数据中心尽可能地有效。

HCI的电源通常来说可以达到1000瓦(W)以上,这会产生很多热量。一个2U高的HCI机器可能会达到25-30KW的功耗,相对来说传统的1U服务器只会产生350-500瓦的功耗而已。即使你已经做了很多减少空气混合的改造(例如分离热通道和冷通道,使用空白面板和保持密闭度),可能理论上已经能够达到冷却的要求,但是实际上你可能还是达不到要求的温度,

什么冷却系统对于HCI系统来说是最好的呢?

美国采暖、制冷与空调工程师学会(ASHRAE)建议的入风温度是80.6华氏度(或27度摄氏度),这不仅仅能节省能源,还能增加空调的制冷能力。更高的进风温度会导致空调的回风温度也会更高。一台典型的20吨机房空调(CRAC)运行在84 kW功率和75华氏度进风温度的情况下会提供137kW的冷却能力以及90华氏度的回风。这里的差异还是蛮大的,但是这并不能保证这些冷却的能力最终都能利用到计算机设备上去。

有效的数据中心冷却系统要考虑性能以及风道。如果环境中空气不够的话,服务器风扇会尝试从其他地方吸收空气——这包括了机柜的顶部、机柜设备之间没有固定的空间、临近的机柜或者机柜与地板的空隙。这会带来两个问题,第一个问题是服务器风扇会加速并且消耗额外的能源。这样的结果是,被服务器风扇抽取的空气的地方会比空调处的空气热很多。

如果你的入风温度已经非常高了,那么这些昂贵的设备会比他们预想的更热,从轻的层面上讲,这会带来一些数据错误。这还会减少这些设备的寿命,并且也会一定程度损坏这些设备。

对于HCI我需要多少空气呢?

有了以下这个公式,你就能快速决定你的数据中心内的空气数量是否满足你设备的需求了。

CFM = BTU/1.08 x TD

CFM是每立方尺每分钟的空气流量

BTU是每小时英热量单位的热负荷

(BTU = Watts x 3.414)

1.08是在正常情况下的空气校正常数

TD是温差,或者叫做Delta温度或ΔT

进风的温度和出风的温度差异大概在25华氏度左右。

做一个快速的计算,假设电源是在几乎满负载的情况下运作的,那么1600瓦单元等效于5460 BTU。假设温差是25华氏度,那么设备需要202 CFM的空气才不会出现问题。

如果你在一个机柜内装满了HCI系统,那么你需要4000 CFM的空气。如果你的空调是普通的20吨机房空调的话,那么它能提供12000 CFM,那么结果是你只能冷却3个机柜的设备。即使你假设服务器的利用率平均有75%,那么每个机柜你还是需要3000 CFM的空气。

如果我无法提供那么多空气怎么办?以下的公式可以帮你解决温差的问题:

TD = BTU / 1.08 x CFM

4个利用率75%的机柜会需要12000 CFM,但是如果附近的机柜需要额外的6000W功率的话,那么你就需要等效的6个HCI机柜的功耗,即至少18000 CFM。你的机房空调可能只能提供12000 CFM。假设你的服务器群是在全速运行的,但是又不能从其他地方抽取更多的空气,那么你的温差会变成53华氏度。这个时候计算设备很可能无法忍受这个温度,从而会导致机器被关闭,或者失效。

其他空气气流限制

如果我们有很多机房空调,那么它们可以将空气直接排放到每一列机柜中去。如果你使用的是地板下的空调,格子型的瓷砖也只能提供56%的开放空间,根据不同的地下压力它可以提供900-1600 CFM,或者5-9 kW的制冷功率。如果你安装了过多的这些瓷砖或者风扇助力的瓷砖,会导致地下的空气压力变小,从而会抽取其他排机柜的空气。风道的大小限制了空气在空中的传递——也就是说即使你有足够的空调来传递足够的空气,但是传递的过程中也会受到一定的限制,从而有一些空气无法到达计算机硬件。

当每一个机柜达到7500 W~10000 W的功率的时候,你可能需要额外的数据中心冷却系统。有很多冷却系统是专门用来对付高密集型计算数据中心的。其中包括地面的和架空冷却器,后门热交换器,甚至液体冷却系统。在未来我们可能会看到越来越多高性能系统设计成支持直接水冷。