使用计算流体动力学降低数据中心冷却成本

日期: 2013-01-21 作者:Clive Longbottom翻译:李洪亮 来源:TechTarget中国 英文

随着服务器密度不断地增长,需要更好的散热效果,这也是数据中必须运用计算流体动力学的由来。     首先数据中心中的大型主机能源效率低下,还会排放出巨大的热量,所以必须制定冷却方案,让机器在正常的温度下运行。大多数情况下,数据中心会使用水进行冷却,但这不是一个好办法,如果电脑有漏电现象与水混合,那么后果将不堪设想。     在分布式计算机架构出现时,这个问题得到了缓解。

在每台服务器机箱中内置冷却风扇,针对内部的CPU和存储等关键部门进行冷却,最终达到把热空气排放到外面的目的。但是,一旦把这些服务器都放在数据中心内,会需要提供大量的空气冷却器,通过计算机机房空调(CRAC)和高架地板将热空气抽走。……

我们一直都在努力坚持原创.......请不要一声不吭,就悄悄拿走。

我原创,你原创,我们的内容世界才会更加精彩!

【所有原创内容版权均属TechTarget,欢迎大家转发分享。但未经授权,严禁任何媒体(平面媒体、网络媒体、自媒体等)以及微信公众号复制、转载、摘编或以其他方式进行使用。】

微信公众号

TechTarget微信公众号二维码

TechTarget

官方微博

TechTarget中国官方微博二维码

TechTarget中国

电子邮件地址不会被公开。 必填项已用*标注

敬请读者发表评论,本站保留删除与本文无关和不雅评论的权力。

随着服务器密度不断地增长,需要更好的散热效果,这也是数据中必须运用计算流体动力学的由来。

    首先数据中心中的大型主机能源效率低下,还会排放出巨大的热量,所以必须制定冷却方案,让机器在正常的温度下运行。大多数情况下,数据中心会使用水进行冷却,但这不是一个好办法,如果电脑有漏电现象与水混合,那么后果将不堪设想。

    在分布式计算机架构出现时,这个问题得到了缓解。在每台服务器机箱中内置冷却风扇,针对内部的CPU和存储等关键部门进行冷却,最终达到把热空气排放到外面的目的。但是,一旦把这些服务器都放在数据中心内,会需要提供大量的空气冷却器,通过计算机机房空调(CRAC)和高架地板将热空气抽走。另外,根据不同形式因素的存在,如需要将冷却刀片和“比萨饼”服务器内的热空气抽走时,那么大型轴流风机将不起作用,则需要体积更小的可径流式风扇。

    同时,能源价格的上升被数据中心视为一个必要的隐蔽焦点。电力使用效率(PUE),是将数据中心总设备能耗与IT设备能耗做一个比值。如果数据中心机房PUE值大于1瓦特,原因是过量使用外围冷却系统设备。

    设备密度和经济驱动力

    IT设备能源效率迅速提高,设备密度的大规模增长是难以保证系统经济运行的。

    当然,数据中心有多种冷却方案,例如:使用冷热水通道、设施运行在更高的整体温度中和使用自由空气冷却,但这些方法都会出现问题。高密度设备会导致内部热点很难有效冷却。

    潜伏在黑暗中一直是工程师多年来经常使用的一种方法。计算流体动力学(CFD)是一个对环境热度进行可视化,然后根据场景来优化方案的系统。在汽轮机和锅炉设计等领域,CFD已经成为一种成熟的方法,但在数据中心还没经常用到这种方法。

    为什么CFD不能运用到数据中心中来?这个问题我们必须先看看CFD和数据中心哪些技术可以结合。在数据中心设施出现故障前发现问题,IT团队对此有着浓厚兴趣。因此,在设备突发问题之前,通过采用红外温度传感器发现问题,成为IT团队主要考虑问题。CFD系统可以获得数据中心整体热点来源记录以此来减少误报。

    直到现在,IT团队也没有看到这个数据。IT团队认为分享这些数据信息对于已使用传感系统设施的数据中心用处并不大,例如:信息建造模拟 / 管理 (BIM) 系统。然而,数据中心基础设施管理(DCIM)系统来自于Eaton、 Nlyte Software、 Romonet、 Inte、 Schneider Electric和其他一些厂商,这些厂商看到了计算流体动力学可视化和预测如何有效解决IT问题。

    但是,在那个时候,IT团队设施仍然是主要的购买DCIM。现在,他们认为DCIM能够找到供应商的解决方案,这是最有意义的。

    IT团队如何使用CFD

    首先,IT团队发现基线在现有数据中心显示冷却是必需的。能够识别热点意味着他们可以有针对性的冷却,而不是使用一个分散方法,确保数据中心平均温度在一定范围内。许多机构都很惊讶,通过能够节省多少钱作为目标,他们把那些运行的组件进行集中冷却,并且很好地把热量从内部排除。

    其次,在优化环境中发现诀窍。例如,它可能会超越现有系统的能力,有效地冷却某机架旋转磁盘。不过,通过横跨两个机架将磁盘分割和安置低能源网络设备的方法处理空间,可以使现有的冷却过程处理热负荷,同样可以避免额外开支。

    之后,IT团队将考虑引进新设备。问题是现有的冷却是否能处理额外的100台新服务器,还是可在虚拟环境中开发一个新的存储系统,他们可能在设备到位之前选择最实惠最有效的解决方案。

    最后,处理新的体系结构。怎么才能很好地在移动设备上建立自己的机架模块化计算平台,如:Dell vStart、IBM PureFlex 或Cisco Unified Computing System?如果网络扁平化,冷却需要如何改变,尽量利用组织方法?而且,由现有的CRAC与自由空气冷却或其他低成本系统取代会怎样?无论何时需要保证数据中心冷却还是提供高可用性?

    CFD一些隐藏技术对于IT团队设施来说发挥了很多作用。虽然技术有些老土,但是CFD应该是现在比较热门的话题。

作者

Clive Longbottom
Clive Longbottom

数据中心专家,IT研究和分析公司Quocirca的联合创始人兼服务主管,该公司总部设在英国Longbottom,并在该领域拥有超过15年的经验。拥有化学工程背景,他从事工作过自动化,有害物质控制以及文档管理和知识管理项目。

相关推荐