雷竞技电脑网站数据中心密度撞击壁

Industrial Light & Magic已经用最热门的IBM刀片服务器取代了它的服务器。

对于每一个新的机架ILM带来的,它减少数据中心的整体功耗使用的高达140千瓦 - 在整体能源使用达到了惊人的84%的降幅。雷竞技电脑网站

但新机柜的功率密度要高得多:每台机柜耗电量为28千瓦,而上一代机柜耗电量为24千瓦。消耗的每一瓦特电能都转化为热量,这些热量必须从每个机架和数据中心移除。雷竞技电脑网站

新架配有84个服务器刀片,每两个四核处理器和32GB的RAM。它们是强大的,足以位移7个机架的旧BladeCenter服务器的特效公司购买了大约三年前,其图像处理的农场。

为了冷却每个42U机架,ILM的空调系统必须比将九个家用炉具在最高设定温度运行产生去除更多的热量。这是新的基础设施,ILM是慢慢在其高架地板扩建的功率密度。

这些天,大多数新的数据中心已经被设计为支持雷竞技电脑网站每平方英尺100到200瓦的平均密度,典型的机柜约4千瓦副总裁兼惠普关键设施服务总经理彼得·格罗斯说。设计雷竞技电脑网站用于每平方英尺200 W A的数据中心可以支持大约5千瓦的平均机架密度。有了精心设计的气流优化,室内空调系统能够以高达25千瓦的支持一些架,他说。

气温上升

数据中心齿轮的最高工作温度雷竞技电脑网站

在2004年之前:72华氏度

2004年:77

2008年:81

资料来源:ASHRAE技术委员会9.9

在每个机架28千瓦,ILM是什么可以与当今机房空调系统冷却上限罗杰·施密特,IBM院士及数据中心效率总工程师说。雷竞技电脑网站“你打了极致,在30千瓦,这将进一步走一大堆斗争,”他说。

[阅读我们的相关报道,“为什么数雷竞技电脑网站据中心的温度已经放缓。“]

可持续发展的问题

现在的问题是,接下来会发生什么?“在未来的瓦上升如此之高,客户端不能把他们的数据中心框中的任意位置,并与功率应付现在冷却?我们正在与摔跤,”施密特说。雷竞技电脑网站高密度计算超过30千瓦的未来将不得不依赖于水基冷却,他说。但是数据雷竞技电脑网站中心的经济可能降低它的价格对于很多组织传播出去的服务器,而不是集中在他们具有越来越高的能量密度机架,其他专家说。

能效提示

刷新您的服务器。每一代新服务器的提供每平方英尺更多处理能力 - 和每个电源的单元所消耗。对于每一个新的BladeCenter机架工业光魔正在安装,它已经能够退休7个机架的旧刀片技术。总功率节省:140千瓦。

向用户收取功率,而不仅仅是空间。“你可以更有效的,如果你要使用方进尺成本以及电力消耗模型,”伊恩·帕特森,CIO史考特说。

使用热通道/冷通道设计。良好的设计,包括多孔砖的仔细放置集中气流,可以帮助数据中心机柜保持凉爽,把恒温器了。雷竞技电脑网站

凯文·克拉克,在ILM信息技术主管,喜欢在处理他与新BladeCenters,这跟从行业发展趋势,提供了更高的性价比实现电力和能源效率的提升。根据IDC的统计,自2004年以来的平均服务器价格已经降至18%,而每核的成本已经下降了70%,至$ 715不过克拉克奇迹是否会再次增加一倍的计算密度,因为他在过去,是可持续的。“如果你加倍我们现有的基础设施的密度,从冷却的角度来看,这将是难以管理,”他说。

他不是唯一一个表达的关切。对于超过40年,计算机行业的商业模式是建立在坚如磐石的假设摩尔定律将继续每两年将计算密度翻一番,直至永久。现在,一些工程师和数据中心设计师开始质疑这是否雷竞技电脑网站可行,以及是否已经达到了一个门槛。

门槛不仅在于芯片制造商能否克服将晶体管封装得比现在的45nm技术还要密集的技术挑战,还在于在现代数据中心运行大量高密度的服务器机架是否经济。雷竞技电脑网站最新的设备将更多的电力集中在更小的地板上,但支撑每平方英尺高密度计算空间所需的机电基础设施——从冷却系统到配电设备、UPSs和发电机——正按比例变得越来越大。

雷竞技电脑网站数据中心经理正在通知。一项对1000个IT网站2009年IDC的调查,21%排在电力和冷却的1号数据中心的挑战。雷竞技电脑网站近一半(43%)报告增加运营成本,并三分之一有经验的服务器停机时间作为电源和冷却问题的一个直接结果。

基督教Belady是领先的基础设施架构师微软的全球基础服务组,它的设计和操作昆西该公司最新的数据中心,华盛顿。他说,每平方英尺的高架地板的成本太高。雷竞技电脑网站在昆西数据中心,他说,这些费雷竞技电脑网站用占工程总量的82%。

对,和反对,运行数据中心更热的情况下,雷竞技电脑网站

提高服务器和其他数据中心齿轮的工作温度不总是节省冷却成本。雷竞技电脑网站IBM研究员罗杰·施密特说,大多数IT厂商增加服务器等设备的风扇转速随着气温超过77华氏度使处理器和其他组件的温度是恒定的。当温度高于77度,今天售出的球迷在大多数服务器的速度显著增加,处理器遭受较高的漏电流。

功耗随着风扇速度的立方 - 在功率,所以如果由10%的速度增加时,即装置增加了33%。当温度高于81楼数据中心管理人员可能认为他们是节能,而实雷竞技电脑网站际上服务器是在比什么是保存在数据中心基础设施的其余部分以更快的速度增加用电量。

结论:如果你把温度提高到81华氏度,总体上还是可以节省能源的,但是提高温度对系统和组件设计者来说是一个挑战。设备可以设计成在更高的温度下工作吗?可能,施密特说。“制造商必须团结起来,决定我们是否应该建议一个更高的限制,这实际上会在数据中心层面节约能源。”雷竞技电脑网站

对架构和技术,为公司的x86服务器的IBM副总裁Tom Bradicich,说,所有的数据中心设备的不同,得到81度的优化该设施是困难的。雷竞技电脑网站即使获得在框中IBM建立,以满足当前规范是一个挑战的组件。“我们的世界正在努力,我们整合了很多第三方组件。在一天结束的时候,IBM不作微处理器和其它组件。”

英特尔(Intel)数据中心技术项目主管戴安•拉森雷竞技电脑网站(Dyan Larson)认为,要让数据中心的所有设备在华氏81度的高温下安全运行,还有很长的路要走。“当人们在更高温度下运行数据中心时,存在可靠性问题。雷竞技电脑网站除非这个行业说,‘我们要保证这些东西在更高的温度下使用’,否则我们不会达到这个目标。”

“我们超越那里有密度更好点,” Belady说。“那一刻你双倍的计算密度,您双击在里屋的足迹。”

惠普的总设计为企业和基于互联网的企业像大型数据中心雷竞技电脑网站谷歌的或雅虎。基于互联网的数据中心由Web服雷竞技电脑网站务器和相关设备的大农场。格罗斯认为Belady的成本约为平均水平。机电基础设施通常构成一个新一级的成本的80%4企业雷竞技电脑网站数据中心的成本,而不管设备的大小。这个数字一般为65%〜70%是基于互联网的数据中心,他说。雷竞技电脑网站这些数字并没有增加太多的功率密度在最近几年有所增加,他补充道。

由于每平方英尺增加计算密度,整体机电成本往往维持不变,格罗斯说。但由于功率密度也增大,机电建筑面积的比例需要支持平方英尺的高密度计算建筑面积也上升。

IBM的施密特说,每瓦特的成本,而不是每平方英尺的成本,仍然是新数据中心最大的建设成本。雷竞技电脑网站“你是不是在路上遇到了一堵无法继续攀爬陡坡的电源墙?”总拥有成本是这里的底线,”他说。这些成本使一些大型数据中心建设项目的成本首次突破了10亿美元大关。雷竞技电脑网站“听到这些数字的C套房吓得要死,因为成本太高了,”他说。

越来越高的能量密度是“从能源使用还是成本角度考虑不可持续的说,分析师在Gartner公司的拉克什·库马尔,幸运的是,大多数企业仍然有很长的路要走,他们看到平均每机架负载在同一范围内的ILM的前。Gartner的企业客户中约有40%是推动超过每机架范围8〜10千瓦,有的高达每架12至15千瓦。然而,这些数字还在不断攀升。

对此,一些企业数据中心和托管服务提供商Terremark公雷竞技电脑网站司一样公司,开始用电和生产要素它来监控到他们收取什么数据中心空间。“我们正在向较大的客户提供电力模式转变,”本·斯图尔特,在Terremark公司工程部高级副总裁。“你告诉我们多大的权力,我们会告诉你,我们多少空间给你。”

但是,期望客户不仅知道他们需要托管多少设备,而且知道每个设备机架需要多少电力,这现实吗?

“对于一些客户来说,这是非常现实的,”斯图尔特说,事实上,Terremark公司正在朝这个方向努力响应客户的需求移动。“他们中许多人都向我们走来,最大千瓦的订单,让我们奠定了空间为他们,”他说。如果客户不知道每个机柜什么的能源需求将是,Terremark公司售电每“鞭”,或电源线饲料每个机柜。

遏制:最后的边疆

IBM的施密特认为,进一步的功率密度的增加是可能的,但它的数据中心冷却这些机架的方式需要改变。雷竞技电脑网站

更多的节能建议

寻找设计最高效的服务器。符合美国环保署“能源之星”标准的硬件具有电源管理、节能电源和变速冷却风扇等功能。前期价格可能会稍高一些,但通常会被产品生命周期中较低的运营成本所抵消。

考虑cold-aisle容器。一旦你有了一个热/冷通道设计,超过4kw的机柜的下一步就是使用冷通道密封技术来保持高密度的服务器机柜的凉爽。这可能包括用门关闭通道的两端,使用管道来控制冷空气,并在行顶部安装屏障,以防止热空气在货架顶部循环。

使用变速风扇。电脑室的空调系统依靠风扇或空气处理器将冷空气送入室内,并将热气从室内排出。风扇转速降低12.5%,电力消耗减半。

ILM的数据雷竞技电脑网站中心于2005年建成,其设计支持的平均负荷为每平方英尺200瓦。该设计有足够的电力和冷却能力的整体。它只是没有一个有效冷却高密度机架的方法。

ILM采用了热/冷通道设计,工作人员成功地调整了冷通道内穿孔瓷砖的数量和位置,以优化叶片中心机架周围的气流。但是为了避免热点,房间的空调系统将整个13500平方英尺的升高楼层冷却到寒冷的65度。

克拉克知道这是低效的;如今的IT设备设计温度最高可达81华氏度,因此他正在研究一种名为“冷通道遏制”的技术。

IBM的罗杰·施密特说,每瓦的成本,而不是每平方英尺的成本,仍然是新的数据中心最大的建设成本。雷竞技电脑网站

地板上的高密雷竞技电脑网站度区域,其中门封山无论是热或冷通道的两端 - 其他的数据中心已经与遏制实验。障碍也可以沿柜,以防止热空气和冷空气从天花板附近混合的各行的顶部放置。在其他情况下,冷空气可直接路由到每个机柜的底部,推到顶部和漏斗在天花板上的通风室回风空间,创造一个闭环系统,不与室内空气混合时所有。“热/冷通道的方法是传统的,但不是最优的,”埃森哲数据中心技术和运营经理洛基Bonecutter说。雷竞技电脑网站“此举是现在去遏制。”

12 第1页
页面1的2
IT薪资调查:结果是