数据中心网络设计中应考虑的冷却因素

日期: 2009-04-09 作者:Brien Posey翻译:曾少宁 来源:TechTarget中国 英文

温度过高会缩短服务器和其它网络设备的使用寿命。网络管理员总是承担着巨大的压力,既要维持网络可靠运行,又要实现对IT预算的充分利用。过高的温度会使设备失效,从而可能导致死机以及随之而来的高昂维修费用。   事实上,数据中心的冷却电源消耗会远远超过我们的想象。

举一个极其典型的例子,当我刚开始从事全职自由撰稿人工作的时候,在一个大房间中,我用14台台式机作服务器。即使一直开着空调,这些机器发出的热量是令人很难忍受的。一般的空调根本无法对其进行冷却。   现代服务器的发热量并不像我以前所使用的机器那么大,但是温度控制仍然是一个问题,特别是如果我们在一个机房中安装了很多不同的设备时。

在这种情况下,我建议……

我们一直都在努力坚持原创.......请不要一声不吭,就悄悄拿走。

我原创,你原创,我们的内容世界才会更加精彩!

【所有原创内容版权均属TechTarget,欢迎大家转发分享。但未经授权,严禁任何媒体(平面媒体、网络媒体、自媒体等)以及微信公众号复制、转载、摘编或以其他方式进行使用。】

微信公众号

TechTarget微信公众号二维码

TechTarget

官方微博

TechTarget中国官方微博二维码

TechTarget中国

电子邮件地址不会被公开。 必填项已用*标注

敬请读者发表评论,本站保留删除与本文无关和不雅评论的权力。

温度过高会缩短服务器和其它网络设备的使用寿命。网络管理员总是承担着巨大的压力,既要维持网络可靠运行,又要实现对IT预算的充分利用。过高的温度会使设备失效,从而可能导致死机以及随之而来的高昂维修费用。

  事实上,数据中心的冷却电源消耗会远远超过我们的想象。举一个极其典型的例子,当我刚开始从事全职自由撰稿人工作的时候,在一个大房间中,我用14台台式机作服务器。即使一直开着空调,这些机器发出的热量是令人很难忍受的。一般的空调根本无法对其进行冷却。

  现代服务器的发热量并不像我以前所使用的机器那么大,但是温度控制仍然是一个问题,特别是如果我们在一个机房中安装了很多不同的设备时。在这种情况下,我建议找一个空调专家,请他专门负责数据中心的温控工作。一位专业人士应该能够帮我们预算出需要多少BTU冷却电源来保证数据中心温度处于一个可接受的范围内。

  另外一个有助于散热的方法是将数据中心建在一个服务器和其它网络组件能够被冷风吹到的位置。常用的方法就是在铺设数据中心地板时使用一种冷道热道分离的设计技术。

  这个技术的基本原理是使每一个使用冷却风扇的硬件都有进气口和排气口。进入进气口的气体越冷,服务器运行时的温度就越低。冷/热道分离的设计技术实际上是根据设备进气口和排气口的位置来安排网络组件的。

  例如,假设所有服务器的前端都有一个进气口,后端有一个排气口。如果打算安置多排服务器,而所有的服务器又朝向同一个方向,那前排的服务器就将吸入冷气体和排出热气,而第二排的服务器会吸入第一排服务器已经加热的气体,然后排出更热的气体。

  在这种情况下如果想应用冷/热道分离设计技术,那么将必须对服务器机柜进行重新安排,使服务器变成背对背的,排气口相对。这样,所有服务器的前端就都可以面向较冷的气体,而不是已经由其它服务器加热的气体。

  大多数大型的组织会通过抬高地板的方式将冷气体抽入数据中心。同时,他们还会选择性地安装一些有通风孔的隔板,使冷气体能从指定的位置排出。我建议在每台服务器机柜的前面安装这些隔板。这样,就会在服务器的进气口前形成一个直接的冷气源,从而有助于保证服务器在温度更低的环境中运行。

  有一点需要铭记,有些网络设备(特别是机架型交换机)并不遵循传统的由前到后气流设计,而是让气体从一边进来然后从另外一边排出。如果使用的是这种类型的设备,那么重要的一点是要安排好机架,以免出现将设备排出的热气体吸入到另外一台设备中的情况出现。

  有些组织选择将机架错开来解决这个问题,而有些组织则只是简单地将机架转向90度。不管使用哪种方法,有一点要记住,我们必须在机架周边留有足够的空间来允许我们对设备进行任何必要的维护。而对于交换机而言,我们也必须确保其设计方式不会妨碍到布线管理。

  电源和冷却管理只是设计数据中心网络时我们必须考虑的问题之一。另外一个重要的问题是机房空间面积的使用。在第2部分中,我将探讨一些节省空间和电源的技巧。

翻译

曾少宁
曾少宁

TechTarget中国特约技术编辑,某高校计算机科学专业教师和网络实验室负责人,曾任职某网络国际厂商,关注数据中心、开发运维、数据库及软件开发技术。有多本关于思科数据中心和虚拟化技术的译著,如《思科绿色数据中心建设与管理》和《基于IP的能源管理》等。

相关推荐