为超融合架构选择合适的数据中心冷却系统

日期:2017-3-29作者:Robert McFarlane

【TechTarget中国原创】

虽然超融合基础架构会带来很多好处,比如精简的IT管理方法,但从数据中心散热的角度来看,它也同时带来了一些特殊的挑战。

当把超融合基础架构的机器安装到机柜上的时候,会在密集的冷却环境中制造出高热量密度。保持散热通道的畅通无阻非常重要,但是要保证正常的温度下给予机器足够的散热风,还要让热量尽量远离这些机器是比较困难的。

其实对于其他IT硬件来说这个原则是一样的,但是鉴于高度融合基础架构(HCI)的密集性以及安装的简易性,你会发现要在数据中心打造一个有效率的散热系统其实是很困难的。很多数据中心在建立之初并没有考虑到这种高度融合的系统的散热问题,但是只要你使用合适的技术,你还是可以让你的数据中心尽可能地有效。

HCI的电源通常来说可以达到1000瓦(W)以上,这会产生很多热量。一个2U高的HCI机器可能会达到25-30KW的功耗,相对来说传统的1U服务器只会产生350-500瓦的功耗而已。即使你已经做了很多减少空气混合的改造(例如分离热通道和冷通道,使用空白面板和保持密闭度),可能理论上已经能够达到冷却的要求,但是实际上你可能还是达不到要求的温度,

什么冷却系统对于HCI系统来说是最好的呢?

美国采暖、制冷与空调工程师学会(ASHRAE)建议的入风温度是80.6华氏度(或27度摄氏度),这不仅仅能节省能源,还能增加空调的制冷能力。更高的进风温度会导致空调的回风温度也会更高。一台典型的20吨机房空调(CRAC)运行在84 kW功率和75华氏度进风温度的情况下会提供137kW的冷却能力以及90华氏度的回风。这里的差异还是蛮大的,但是这并不能保证这些冷却的能力最终都能利用到计算机设备上去。

我们一直都在努力坚持原创.......请不要一声不吭,就悄悄拿走。

我原创,你原创,我们的内容世界才会更加精彩!

【所有原创内容版权均属TechTarget,欢迎大家转发分享。但未经授权,严禁任何媒体(平面媒体、网络媒体、自媒体等)以及微信公众号复制、转载、摘编或以其他方式进行使用。】

微信公众号

TechTarget微信公众号二维码

TechTarget

官方微博

TechTarget中国官方微博二维码

TechTarget中国

评论
查看更多评论

敬请读者发表评论,本站保留删除与本文无关和不雅评论的权力。

作者>更多

Robert McFarlane
Robert McFarlane

数据中心专家

数据中心冷却>更多

相关推荐

技术手册>更多

  • 服务器基准测试与管理指南

    谈到系统基准测试,最大的问题在于你所得的基本数据不可能百分百的准确。此外,服务器基准测试对于保持系统性能而言相当关键,对容量规划也很有用。不论你是否使用Windows内置的基准测试工具或是其它商用产品,服务器基准测试结果都很有意义。如今,虚拟化技术日趋成熟,这让企业容量规划变得充满变数,管理员可以使用基准工具密切关注服务器资源、利用率、性能和其他因素,从而让企业在资源匮乏之前主动增加他们的基础架构。那么,如何选择基准测试工具?如何提高基准测试的准确性?如何避免基准测试常见的错误……本技术指南将对这些问题进行解答。

  • 服务器CICS系统运维指南

    CICS全称是Customer Information Control System,即客户信息控制系统。CICS建立在操作系统、ISO的分布式计算环境和Encina服务上,它帮助客户建立三层次结构的联机事务处理应用。CICS能为应用程序开发、通信、恢复、显示、数据管理、安全性和内部通信等提供多项服务。今年是CICS诞辰40周年。它从最初的面向小型企业的汇编语言程序发展到今天这一步,经历了漫长的发展阶段。本指南介绍其在安全、通信、应用程序开发等方面的一些技巧。

  • 数据中心灾难恢复手册

    当前,随着企业和社会数据量的不断增加,数据中心的规模不断扩大。伴随着数据集中在电子政务、企业信息化等领域的逐渐展开,以及基于Web的应用不断普及深入,新一代的企业级数据中心建设已成为行业信息化的新热点。虚拟化、云计算等新技术和概念的提出更是为数据中心的发展开辟了新的道路。但是,数据中心愈加壮大,对数据中心安全性的要求就愈加严格。而作为确保数据中心安全的一个重要方面,数据中心灾难恢复就显得尤为重要。作为数据中心管理人员,数据中心灾难恢复有何重要性?如何制定数据中心灾难恢复规划?虚拟化、重复数据删除等技术在灾难恢复中将起到什么作用?本专题将为你解答这些问题,对数据中心灾难恢复趋势与技巧进行分析。

  • 虚拟数据中心的高可用性部署指南

    大家都清楚部署高可用对企业而言一定是可以获益的。在高可用数据中心规划过程中,管理者需要反复考虑到物理服务器的冗余问题。在传统的非虚拟化HA环境中,相对地两台普通物理服务器一般只运行相同的操作系统及应用程序。对于运行有多个冗余虚拟机的集群服务器而言,保留适当的空间显得不是那么的重要,因为集群中还有另外一台服务器已经运行了一个或多个虚拟机的副本。本技术指南引领大家去了解数据中心高可用性规划的流程,虚拟化对于高可用性部署的意义以及数据中心常用的高可用性集群策略。

TechTarget

最新资源
  • 安全
  • 存储
  • 虚拟化
  • 网络
  • 服务器
  • 云计算
【TechTarget中国原创】

虽然超融合基础架构会带来很多好处,比如精简的IT管理方法,但从数据中心散热的角度来看,它也同时带来了一些特殊的挑战。

当把超融合基础架构的机器安装到机柜上的时候,会在密集的冷却环境中制造出高热量密度。保持散热通道的畅通无阻非常重要,但是要保证正常的温度下给予机器足够的散热风,还要让热量尽量远离这些机器是比较困难的。

其实对于其他IT硬件来说这个原则是一样的,但是鉴于高度融合基础架构(HCI)的密集性以及安装的简易性,你会发现要在数据中心打造一个有效率的散热系统其实是很困难的。很多数据中心在建立之初并没有考虑到这种高度融合的系统的散热问题,但是只要你使用合适的技术,你还是可以让你的数据中心尽可能地有效。

HCI的电源通常来说可以达到1000瓦(W)以上,这会产生很多热量。一个2U高的HCI机器可能会达到25-30KW的功耗,相对来说传统的1U服务器只会产生350-500瓦的功耗而已。即使你已经做了很多减少空气混合的改造(例如分离热通道和冷通道,使用空白面板和保持密闭度),可能理论上已经能够达到冷却的要求,但是实际上你可能还是达不到要求的温度,

什么冷却系统对于HCI系统来说是最好的呢?

美国采暖、制冷与空调工程师学会(ASHRAE)建议的入风温度是80.6华氏度(或27度摄氏度),这不仅仅能节省能源,还能增加空调的制冷能力。更高的进风温度会导致空调的回风温度也会更高。一台典型的20吨机房空调(CRAC)运行在84 kW功率和75华氏度进风温度的情况下会提供137kW的冷却能力以及90华氏度的回风。这里的差异还是蛮大的,但是这并不能保证这些冷却的能力最终都能利用到计算机设备上去。

有效的数据中心冷却系统要考虑性能以及风道。如果环境中空气不够的话,服务器风扇会尝试从其他地方吸收空气——这包括了机柜的顶部、机柜设备之间没有固定的空间、临近的机柜或者机柜与地板的空隙。这会带来两个问题,第一个问题是服务器风扇会加速并且消耗额外的能源。这样的结果是,被服务器风扇抽取的空气的地方会比空调处的空气热很多。

如果你的入风温度已经非常高了,那么这些昂贵的设备会比他们预想的更热,从轻的层面上讲,这会带来一些数据错误。这还会减少这些设备的寿命,并且也会一定程度损坏这些设备。

对于HCI我需要多少空气呢?

有了以下这个公式,你就能快速决定你的数据中心内的空气数量是否满足你设备的需求了。

CFM = BTU/1.08 x TD

CFM是每立方尺每分钟的空气流量

BTU是每小时英热量单位的热负荷

(BTU = Watts x 3.414)

1.08是在正常情况下的空气校正常数

TD是温差,或者叫做Delta温度或ΔT

进风的温度和出风的温度差异大概在25华氏度左右。

做一个快速的计算,假设电源是在几乎满负载的情况下运作的,那么1600瓦单元等效于5460 BTU。假设温差是25华氏度,那么设备需要202 CFM的空气才不会出现问题。

如果你在一个机柜内装满了HCI系统,那么你需要4000 CFM的空气。如果你的空调是普通的20吨机房空调的话,那么它能提供12000 CFM,那么结果是你只能冷却3个机柜的设备。即使你假设服务器的利用率平均有75%,那么每个机柜你还是需要3000 CFM的空气。

如果我无法提供那么多空气怎么办?以下的公式可以帮你解决温差的问题:

TD = BTU / 1.08 x CFM

4个利用率75%的机柜会需要12000 CFM,但是如果附近的机柜需要额外的6000W功率的话,那么你就需要等效的6个HCI机柜的功耗,即至少18000 CFM。你的机房空调可能只能提供12000 CFM。假设你的服务器群是在全速运行的,但是又不能从其他地方抽取更多的空气,那么你的温差会变成53华氏度。这个时候计算设备很可能无法忍受这个温度,从而会导致机器被关闭,或者失效。

其他空气气流限制

如果我们有很多机房空调,那么它们可以将空气直接排放到每一列机柜中去。如果你使用的是地板下的空调,格子型的瓷砖也只能提供56%的开放空间,根据不同的地下压力它可以提供900-1600 CFM,或者5-9 kW的制冷功率。如果你安装了过多的这些瓷砖或者风扇助力的瓷砖,会导致地下的空气压力变小,从而会抽取其他排机柜的空气。风道的大小限制了空气在空中的传递——也就是说即使你有足够的空调来传递足够的空气,但是传递的过程中也会受到一定的限制,从而有一些空气无法到达计算机硬件。

当每一个机柜达到7500 W~10000 W的功率的时候,你可能需要额外的数据中心冷却系统。有很多冷却系统是专门用来对付高密集型计算数据中心的。其中包括地面的和架空冷却器,后门热交换器,甚至液体冷却系统。在未来我们可能会看到越来越多高性能系统设计成支持直接水冷。