中智科技数据中心的空间治理

日期: 2011-11-13 来源:TechTarget中国

  一般数据中心的建设都会考虑空间、制冷和配电等基础设施的配备问题,尤其是电力供应的问题往往制约着数据中心的选址,导致有些数据中心将建设到远离城市中心的偏远地带,甚至有极端的案例是将数据中心建在了电厂的附近。

  如果一定要将数据中心建在寸土寸金的商务楼里,那么对于数据中心的设计者来说,无疑是极为头疼的问题。如何平衡空间、制冷和配电这三者的关系,将是决定数据中心能否实现设计目标的关键。中智上海经济技术合作公司就做了这样的选择,将数据中心建在位于上海徐家汇的商务楼里。在55平方的狭小空间里,中智上海数据中心却做到了既满足公司内部需求,同时又面向中小企业提供服务的强大能力,这一切是如何实现的呢?

  拍脑袋决定的规划

  一个数据中心或机房的建设,最痛苦的事情就是机房的设计和规划阶段,为什么呢?其实有很多问题不一定是IT的问题。管理层在考虑数据中心的建设上,往往考虑的是能用多长时间,而不是需要多少台服务器、存储、交换机、UPS,而这些都是IT人员所要考虑的。

  这样一来,导致了一个常见的问题,就是过度规划,因为IT人员可能不知道最后业务会怎么发展,所以在规划阶段就留了非常大的余量,能上大机房尽量上大机房,大机房内将机柜全部塞满,UPS和制冷都是按照大余量进行配备的。这样的规划带来的问题是机房的租赁成本和能源的开销居高不下,后期的运维成本将成为极大的负担。

  上海中智科技应用发展公司运营总监曹赟,这个做过系统集成而现在又身处甲方的IT经理,在设计数据中心时同样碰到这个难题,管理层说不出对IT的具体需求。“好不容易跟老板软磨硬泡,不管他是精确算出来还是拍脑袋的,就给了我们一个要求:能容纳200台服务器和配套的网络存储设施,整个系统要留30到40分钟的后备时间。”曹赟介绍说。

  不可能的任务

  由于中智的管理层决定将数据中心设在商务楼里,很多问题便浮出了水面。首先是建筑面积,虽说总的建筑面积大概有200平方米,但去掉卫生间和机房里的煤气管,IT负载可用的实际面积仅只有55平方米。在这55平方米里塞进200台1U到4U的服务器和其他设备,是一个比较大的挑战。

  其次是配电问题,物业仅仅提供给了中智上海数据中心一路200安培的三相电源,能提供的功率满打满算也不过在130千瓦左右,而200台服务器的功率就已经达到80千瓦,加上空调外机制冷的功率30千瓦,考虑到开关机触发的电源需求和照明、维护用电,物业提供的电源已经捉襟见肘了。

  再次是制冷的问题,如果采用传统的下送风方式的话,要做到每秒钟送1200升的冷风量进去才能满足高密度数据中心的制冷需求。学物理出身的曹赟认真地算出这个数据时,吓了一身冷汗,这个速度非常夸张,基本上地板可以被吹掉了!

  “要做到这样IT的负载,我们必须非常完美地去平衡空间、制冷和配电这三者之间的关系,任何的一方面出现问题都会导致整个IT负载的面积大大缩小,只有三者非常完美的配合,才能做到支撑的IT设备是最大花的。这简直是一个‘不可能的任务’!”曹赟感叹道。

  螺蛳壳里做道场

  上海有句俗话叫:“螺蛳壳里做道场。”它比喻在极小的地方办场面很大的事情,如今曹赟面临的正是这样的难题。喜欢钻研的曹赟,通过多方对比,发现只有APC的InfraStruxure英飞集成系统能满足设计的需求,尤其在制冷这一块优势明显。

  在制冷方面,中智上海数据中心采用了4台InRowRC103冷冻水的内置空调,可以提供80千瓦的制冷量,本身消耗的电力只有4千瓦,机柜级制冷的效率非常高。此外还有3台冷冻水机组,提供90千瓦的制冷量,额定最高功耗是30千瓦。曹赟还巧妙的利用一个原来给物业烧热水的水箱,改造成一个冷冻储水箱,可以储存18吨水,这样就解决了在外界停电的情况下,有一个不间断的冷源。

  在配电方面,曹赟使用了APC一台模块化的160千伏安UPS,采用N+1的配置,为核心的IT负载提供不间断的电源。

  曹赟把核心设备集中到英飞集成系统的10个柜子里面去,规划设计是每个柜子单柜功率密度达到8~10千瓦,很好地解决了空间的问题。

  “APC的InfraStruxure英飞集成系统除了能满足设计需求之外,由于我们增值的业务发展很快,APC的模块化设计可以做到不停机增添设备,以适应业务的发展。此外,它针对整体拥有成本的优化也是我们所在乎的。”曹赟给记者算了一笔账,如果算上机房的租赁面积费用的节省,省下的费用大概一年半就能再造一个机房,这是非常可观的。

  一般数据中心的建设都会考虑空间、制冷和配电等基础设施的配备问题,尤其是电力供应的问题往往制约着数据中心的选址,导致有些数据中心将建设到远离城市中心的偏远地带,甚至有极端的案例是将数据中心建在了电厂的附近。

  如果一定要将数据中心建在寸土寸金的商务楼里,那么对于数据中心的设计者来说,无疑是极为头疼的问题。如何平衡空间、制冷和配电这三者的关系,将是决定数据中心能否实现设计目标的关键。中智上海经济技术合作公司就做了这样的选择,将数据中心建在位于上海徐家汇的商务楼里。在55平方的狭小空间里,中智上海数据中心却做到了既满足公司内部需求,同时又面向中小企业提供服务的强大能力,这一切是如何实现的呢?

  拍脑袋决定的规划

  一个数据中心或机房的建设,最痛苦的事情就是机房的设计和规划阶段,为什么呢?其实有很多问题不一定是IT的问题。管理层在考虑数据中心的建设上,往往考虑的是能用多长时间,而不是需要多少台服务器、存储、交换机、UPS,而这些都是IT人员所要考虑的。

  这样一来,导致了一个常见的问题,就是过度规划,因为IT人员可能不知道最后业务会怎么发展,所以在规划阶段就留了非常大的余量,能上大机房尽量上大机房,大机房内将机柜全部塞满,UPS和制冷都是按照大余量进行配备的。这样的规划带来的问题是机房的租赁成本和能源的开销居高不下,后期的运维成本将成为极大的负担。

  上海中智科技应用发展公司运营总监曹赟,这个做过系统集成而现在又身处甲方的IT经理,在设计数据中心时同样碰到这个难题,管理层说不出对IT的具体需求。“好不容易跟老板软磨硬泡,不管他是精确算出来还是拍脑袋的,就给了我们一个要求:能容纳200台服务器和配套的网络存储设施,整个系统要留30到40分钟的后备时间。”曹赟介绍说。

  不可能的任务

  由于中智的管理层决定将数据中心设在商务楼里,很多问题便浮出了水面。首先是建筑面积,虽说总的建筑面积大概有200平方米,但去掉卫生间和机房里的煤气管,IT负载可用的实际面积仅只有55平方米。在这55平方米里塞进200台1U到4U的服务器和其他设备,是一个比较大的挑战。

  其次是配电问题,物业仅仅提供给了中智上海数据中心一路200安培的三相电源,能提供的功率满打满算也不过在130千瓦左右,而200台服务器的功率就已经达到80千瓦,加上空调外机制冷的功率30千瓦,考虑到开关机触发的电源需求和照明、维护用电,物业提供的电源已经捉襟见肘了。

  再次是制冷的问题,如果采用传统的下送风方式的话,要做到每秒钟送1200升的冷风量进去才能满足高密度数据中心的制冷需求。学物理出身的曹赟认真地算出这个数据时,吓了一身冷汗,这个速度非常夸张,基本上地板可以被吹掉了!

  “要做到这样IT的负载,我们必须非常完美地去平衡空间、制冷和配电这三者之间的关系,任何的一方面出现问题都会导致整个IT负载的面积大大缩小,只有三者非常完美的配合,才能做到支撑的IT设备是最大花的。这简直是一个‘不可能的任务’!”曹赟感叹道。

  螺蛳壳里做道场

  上海有句俗话叫:“螺蛳壳里做道场。”它比喻在极小的地方办场面很大的事情,如今曹赟面临的正是这样的难题。喜欢钻研的曹赟,通过多方对比,发现只有APC的InfraStruxure英飞集成系统能满足设计的需求,尤其在制冷这一块优势明显。

  在制冷方面,中智上海数据中心采用了4台InRowRC103冷冻水的内置空调,可以提供80千瓦的制冷量,本身消耗的电力只有4千瓦,机柜级制冷的效率非常高。此外还有3台冷冻水机组,提供90千瓦的制冷量,额定最高功耗是30千瓦。曹赟还巧妙的利用一个原来给物业烧热水的水箱,改造成一个冷冻储水箱,可以储存18吨水,这样就解决了在外界停电的情况下,有一个不间断的冷源。

  在配电方面,曹赟使用了APC一台模块化的160千伏安UPS,采用N+1的配置,为核心的IT负载提供不间断的电源。

  曹赟把核心设备集中到英飞集成系统的10个柜子里面去,规划设计是每个柜子单柜功率密度达到8~10千瓦,很好地解决了空间的问题。

  “APC的InfraStruxure英飞集成系统除了能满足设计需求之外,由于我们增值的业务发展很快,APC的模块化设计可以做到不停机增添设备,以适应业务的发展。此外,它针对整体拥有成本的优化也是我们所在乎的。”曹赟给记者算了一笔账,如果算上机房的租赁面积费用的节省,省下的费用大概一年半就能再造一个机房,这是非常可观的。

  数据中心未来的拓展

  尽管受到种种的制约,曹赟对于数据中心适应未来业务发展需求方面还是蛮有信心的。他向记者表示,现在的数据中心最多可以放入将近250台服务器,已经留了一点的余量。这得益于从其他的楼面借了一路电,可以提供20千瓦的负载,解决了未来电力的供应问题。

  随着虚拟化进程的发展,中智上海数据中心已经开始往转向虚拟化。实际物理服务器真正需要的数量反而会降低,不一定用到200台,因为虚拟化有利于提升服务器的利用率。这样又为以后业务的发展腾出一些余量。

  曹赟介绍说:“我们在金桥还建了一个备份中心,今年10月份就要建完。也是采用英飞集成系统的解决方案,第一期是6个柜子,关键应用以后会逐步移出去。我觉得从容量来看,未来5年~10年,应该是足够我们发展的了。”

  尽管受到种种的制约,曹赟对于数据中心适应未来业务发展需求方面还是蛮有信心的。他向记者表示,现在的数据中心最多可以放入将近250台服务器,已经留了一点的余量。这得益于从其他的楼面借了一路电,可以提供20千瓦的负载,解决了未来电力的供应问题。

  随着虚拟化进程的发展,中智上海数据中心已经开始往转向虚拟化。实际物理服务器真正需要的数量反而会降低,不一定用到200台,因为虚拟化有利于提升服务器的利用率。这样又为以后业务的发展腾出一些余量。

  曹赟介绍说:“我们在金桥还建了一个备份中心,今年10月份就要建完。也是采用英飞集成系统的解决方案,第一期是6个柜子,关键应用以后会逐步移出去。我觉得从容量来看,未来5年~10年,应该是足够我们发展的了。”

我们一直都在努力坚持原创.......请不要一声不吭,就悄悄拿走。

我原创,你原创,我们的内容世界才会更加精彩!

【所有原创内容版权均属TechTarget,欢迎大家转发分享。但未经授权,严禁任何媒体(平面媒体、网络媒体、自媒体等)以及微信公众号复制、转载、摘编或以其他方式进行使用。】

微信公众号

TechTarget微信公众号二维码

TechTarget

官方微博

TechTarget中国官方微博二维码

TechTarget中国

电子邮件地址不会被公开。 必填项已用*标注

敬请读者发表评论,本站保留删除与本文无关和不雅评论的权力。

相关推荐