随着人工智能在企业环境下的发展,数据中心的电力使用也将迅速增长。雷竞技电脑网站人工智能有很多方面,但能效不在其中。
对于运行雷竞技电脑网站典型企业应用程序的数据中心,机架的平均功耗约为7 kW。然而,据数据中心组织称,人工智能应用在每个机架上使用超过30千瓦是很常见的雷竞技电脑网站AFCOM。这是因为人工智能需要更高的处理器利用率,而处理器——尤其是gpu——非常耗电。例如,Nvidia gpu的运行速度可能比CPU快几个数量级,但它们每个芯片消耗的电能却是CPU的两倍。令问题更加复杂的是,许多数据中心的能力已经受到了限制。雷竞技电脑网站
冷却也是一个问题:面向人工智能的服务器需要更大的处理器密度,这意味着更多的芯片被塞进盒子里,而且它们都运行得非常热。与典型的后端服务器相比,更大的密度和更高的利用率增加了冷却需求。更高的冷却要求反过来又提高了电力需求。
那么,如果你出于竞争的原因想要接受人工智能,但你现有设施的电力容量达不到人工智能的高密度基础设施要求,你能做什么呢?这里有一些选择。
考虑液体冷却
风扇冷却通常失去活力一旦机架超过15千瓦。然而,水的热容是空气的3000倍CoolIT系统公司是一家生产液体冷却产品的企业。因此,服务器机柜制造商一直在往机柜中添加液体管道,并将水管连接到散热器而不是风扇。
“对于更高密度的负载,液体冷却绝对是一个非常好的选择,”美国国家航空航天局数据中心运营高级副总裁John Sasser说雷竞技电脑网站Sabey他是数据中心的开发人员和操作员。雷竞技电脑网站这就消除了混乱的气流问题。水比空气带走更多的热量,你可以直接通过管道。很多高性能计算都是通过液体冷却来完成的。”
大多数数据雷竞技电脑网站中心都是为空气冷却而建立的,因此液体冷却需要资本投资,“但对于这些努力来说,这可能是一个更明智的解决方案,尤其是如果一家公司决定朝着(人工智能)的方向发展,”Sasser说。
以较低的分辨率运行AI工作负载
现有的数据中心可能雷竞技电脑网站能够处理人工智能计算工作负载,但以一种减少的方式,史蒂夫康威说,高级研究副总裁亥伯龙神的研究。许多(如果不是大多数的话)工作负载可以以半或四分之一的精度运行,而不是64位的双精度。