雷竞技电脑网站数据中心的密度达到极限

12 第二页
第2页共2页

使用这样的技术,惠普的总估计,数据中心可以支持高达约每机架25千瓦使用计算机机房空调系统。雷竞技电脑网站“这需要冷和热的仔细分离,消除混合,优化气流,这些正在成为日常工程演习,”他说。

液体进入

虽然按照现代标准重新设计数据中心有助雷竞技电脑网站于减少电力和冷却问题,但最新的刀片服务器已经超过每架25kw。在过去的五年里,它一直在拧紧货架,清理凸起的地板空间,优化空气流通。在提高能源效率方面,唾手可得的果实已经不见了。如果密度继续上升,密封将是计算机室空气冷却的最后一口气。

一些数据中雷竞技电脑网站心已经开始转移到液体冷却至数据中心地址的高密度的“热点”。最常用的技术,被称为紧密耦合冷却,涉及管道的冷却液体,通常是水或乙二醇,到升高的地板空间的中间,以供应空气 - 水热交换器的行或机架内。库马尔预计,Gartner的企业客户中20%的人使用至少一些高密度机架这种类型的液体冷却。

这些紧密结合的冷却装置可被安装在服务器机架的一排中间的机壳,因为数据中心供应商APC与它的InRow冷冻水单元确实,或者它们可以直接连接到每个机柜,如IBM不与它的后门雷竞技电脑网站热交换器。

紧密耦合冷却可能在解决几个热点方面工作得很好,但它是一个补充解决方案,在分布式计算环境中不能很好地扩展,Gross说。IBM的后门热交换器,可以冷却高达50,000 BTUs或15 kW,可以从ILM的28 kW机架上消除约一半的余热。但克拉克仍然需要依靠室内空调来清除剩余的BTUs。

惠普公司的彼得·格罗斯称,大多数IT经理们不希望支付所需的超高密度额外的钱,并期待分发,而不是更捣鼓到相同的空间服务器。

紧密耦合冷却还需要建设新的基础设施。“水是昂贵的,增加了重量和复杂性,”Gross说。给几台大型机供水是一回事。但是,大多数数据中心的管理人员宁愿避免为一层升高的地板上的数百个橱柜提供冷冻水所需的管道网络。雷竞技电脑网站他说:“现在的普遍情绪是,只要我还能用传统的空气冷却,我就宁愿这样做。”

“在分布式模型中,他们使用1U或2U服务器,支持数千个这样的节点所需的能量可能是不可持续的,”Schmidt说。他认为,数据中心必须雷竞技电脑网站将硬件规模从1U或2U分布式的x86级服务器扩展到使用运行在大型机或高性能计算基础设施上的虚拟服务器的集中式模型。

极大地提高热传输效率的一种方法是通过直接液体冷却。这包括通过专门的冷板,使与处理器直接接触管道冷水。因为处理器气温的升高,从晶体管的增加的漏电流受到这是重要的。泄漏是其中电流少量继续通过每个晶体管中流动,即使当晶体管处于截止状态的现象。

使用冷板可以通过保持硅冷却器来减少处理器泄漏问题,从而使服务器运行得更快——也更热。在对System p 575超级计算机的测试中,施密特说IBM使用了直接液体冷却技术,使性能提高了三分之一,同时保持了85千瓦的机柜冷却。大约70%的系统是水冷的。

很少有数雷竞技电脑网站据中心管理人员能够设想将他们的大部分服务器工作负载转移到昂贵的、专门的超级计算机或大型机上。

但IBM的Bradicich说,诸如低功耗芯片或变速风扇等渐进式的改进并不能单独解决这个问题。需要对基本的x86服务器平台进行架构上的改进。

成本,收敛性和规模经济

像惠普和其他IT供应商一样,IBM也在致力于Bradicich所谓的“运营整合”融合基础设施它将计算、存储和网络结合在一起。虽然融合基础设施的主要目标是使系统管理更容易,但Bradicich认为电源和冷却是融合基础设施的一部分。在IBM看来,x86平台将发展成为高度可伸缩的、可能更专有的对称多处理系统,旨在显著增加每个服务器和每个机架支持的工作负载。这样的系统需要将冷冻水带到冷却架上以满足冷却的需要。

但惠普的格罗斯表示,事情可能正朝着相反的方向发展。他雷竞技电脑网站说:“数据中心的占地面积越来越大,人们正试图分散它们。”他问道:“为什么会有人花那么多钱来实现这些超高密度呢?”尤其是当这些东西可能需要特殊的冷却时。

IBM的施密特说,采用室内制冷的数据中雷竞技电脑网站心——特别是那些采用更大的空气处理器来应对更高的热密度的数据中心——如果改用水,可以节省相当大的能源。

但微软的Belady认为,液体冷却的吸引力将局限于单一利基:高性能计算。“一旦你把液体冷却技术应用到芯片上,成本就会开始上升,”他争辩道。“迟早会有人问这样一个问题:为什么我要为这种方式付出这么多?”

更多的节能技巧

打开电源管理。大多数服务器都配备了节能技术,可以控制冷却风扇的速度,并在空闲时间降低CPU的功率,但这些技术并不是默认开启的,许多数据中心仍然没有启用这些技术。雷竞技电脑网站考虑在默认情况下启用它,除非在高可用性和快速响应时间对任务至关重要的环境中。

创建区域。将数据中心层划分为自雷竞技电脑网站治区域,每个机架块都有自己专用的电力和冷却资源。分区涉及到仔细地分离热空气和冷空气,但通常不要求一个区域的物理分隔。

用紧密耦合冷却方法冷却热点。一系列高功率密度的搁板会形成房间空调系统无法处理的热点,或者迫使它为处理几个柜子而对整个房间进行过冷。在这种情况下,考虑补充局部冷却系统。这就需要用管道将冷却过的液体——无论是冷水还是乙二醇——输送到一个热交换器上,而热交换器是与一个高密度柜相连或相邻的。

他没有看到液体冷却在分布式数据中心,如微软的一个可行的替代方案。雷竞技电脑网站

从不断增加的功率密度取气势夺最好的办法是改变数据中心使用的退款方法Belady说。雷竞技电脑网站微软改变了它的成本分配策略和基于功耗数据中心的总功率足迹的一部分,而不是使其基于地面空间和机架利用率开始的付费用户。雷竞技电脑网站在那之后,他说,“整个讨论一夜之间改变。”每机架功耗开始下降。“整个事情的密度时,得到的费用是根据消耗的功率分配不感兴趣,”他说。

一旦微软开始充电电源,其用户的注意力从在尽可能小的空间,以获得每瓦最大性能获得最大处理能力改变。这可能会或可能不会导致更高密度的选择 - 这取决于所提出的解决方案的整体能源使用效率。在另一方面,Belady说,“如果您要收取费用的空间,动机是大约密度100%。”

微软的基督教Belady说,一旦微软开始充电电源,用户的注意力从获得最多处理能力到尽可能小的空间,以获得每瓦最大性能改变。

今天,厂商的最高密度的设计,大多数用户选择的高密度服务器,以节省空间电荷。用户可以支付更多更高密度的服务器基础设施,以节省地面空间费用,即使每瓦性能,因为额外的配电和冷却的需求较高。但是在后端,运营成本的80%的用电量规模 - 和机电基础设施需要提供电源和冷却设备。

用力跑,热跑

Belady,在惠普的服务器设计谁曾担任著名工程师,认为IT设备的设计应在更高的工作温度下可靠地工作。当前设备被设计成在81度的最大温度下操作。从2004年,当时的官方规范,由ASHRAE技术委员会9.9,设置为72度到了。

但Belady说运行数据中心的齿轮更热比可能会导雷竞技电脑网站致巨大的效率提升81度。

“一旦气温升高,就有了利用室外空气的新机会,就可以消除很多冷却器……但你不能走得这么密集,”他说。美国的一些地区已经在冬天关闭了冷水机,使用节能器,这种节能器使用室外空气和空气-空气或空气-水热交换器来提供热水。自由冷却“到数据中心。雷竞技电脑网站

他说,如果IT设备可以在华氏95度(约摄氏45度)的温度下运行,那么美国的大多数数据中心就可以几乎全雷竞技电脑网站年都使用空气侧节流器进行冷却。他还说,“如果我能在120度的温度下操作……我可以在世界上任何地方跑步,不需要空调。如果我们这样想的话,将会彻底改变游戏规则。”不幸的是,实现这一目标还存在一些障碍。(参见“支持和反对运行服务器更热“。)

Belady希望设备更坚固,但他也认为服务器比大多数管理员意识到的更有弹性。他认为,业界需要重新考虑托管分布式计算系统的高度控制环境的类型。

他说,理想的策略是开发能够针对特定功率密度优化每个机柜的系统,并管理工作负载,确保每个机柜一直都能达到这个数字。通过这种方式,电力和冷却资源都能得到有效利用,而不会因为利用不足或过度而产生浪费。他说:“从可持续性的角度来看,如果不利用基础设施,这实际上是一个比过度利用更大的问题。”

下一步是什么

Belady认为市场将出现分歧。高性能计算将采用基于水的冷却方式,而企业数据中心的其他部分——以及微软的基于互联网的数据中心——将继续使用空气,但将迁至空间和电力成本较低的地区,以便向外扩展。雷竞技电脑网站

更多的节能技巧

改造以提高效率。虽然新的数据中心设计雷竞技电脑网站是冷却效率进行了优化,许多年长的还是有问题。如果你还没有做基础,在冷通道优化穿孔瓷砖的展示位置或将毯子在地板空间布线是开始的好地方。

安装温度监控。监测室内温度是不够的。添加更多的传感器可以更好地控制排或机架。

把暖气调大。提高效率的关键是你的入口温度的橱柜。入口温度越高,数据中心的能源效率越高。雷竞技电脑网站虽然你不可能把入口温度设置在81华氏度,但你也不需要把温度设置在65华氏度。

戴尔企业产品部门的首席技术官保罗•普林斯(Paul Prince)认为,大多数数据中心在短期内不会遭遇功率密度问题。雷竞技电脑网站在室内空气条件下,每个机架的平均功率密度仍在可控范围内,他说,热通道/冷通道的设计和创造“超强力冷却区域”的密封系统将帮助数据中心跟上速度。雷竞技电脑网站是的,密度将继续呈逐渐上升的弧线。但是,他说,这将是一种增量。“我没有看到它从悬崖上掉下来。”

在ILM,克拉克认为转向水,以紧密耦合冷却的形式,是不可避免的。克拉克承认,他和他的大多数同行对把水引入数据中心的想法感到不舒服。雷竞技电脑网站但他认为,像他这样的高性能数据中心将不得不适应。雷竞技电脑网站“我们将被赶出我们的舒适区,”他说。“但我们很快就会克服这个问题。”

罗伯特·米切尔编写计算机世界技术中心的功能。按照罗布在Twitter http://twitter.com/rmitch,发送电子邮件至rmitchell@computerworld.com或订阅他的RSS提要。

这个故事,“数据中心密度碰雷竞技电脑网站壁”最初是由《计算机世界》

加入网络世界社区有个足球雷竞技app脸谱网LinkedIn对最重要的话题发表评论。

版权©2010Raybet2

12 第二页
第2页共2页
工资调查:结果在