Schneider Electrication表示,AI处理电量和冷却需求远超出标准硬件配置所能提供的范围。
雷竞技电脑网站Schneider电气公司警告电力需求 AI冷却超出标准数据中心设计所能处理的范围
雷竞技电脑网站Schneider等公司可能期望实现这一点,该公司制造数据中心使用电冷系统但不表示Schneider不正确AI工作类型不同于标准服务器端应用程序,例如数据库,老式方法不再切除它
施耐德白纸AI需要三样东西的充裕提供:电源、冷却和带宽GPU最受欢迎AI处理器和最强电英特尔和AMD的CPU约画300至400瓦特,Nvidia最新GPUs为每个处理器画700瓦特,通常一次分八组交付
通向更大的机架密度机架密度约10kW至20kW标准化并易用空气冷却处理(热水槽和风扇)。超过30kW/rack表示空气冷却不再可行冷却至此时,液体冷却需加以考虑,而液体冷却并非易变换
雷竞技电脑网站新建企业、企业、同地服务提供商和互联网巨头现在必须考虑这些密度对数据中心物理基础设施设计管理的影响,
雷竞技电脑网站Schneider预测全球累积数据中心总电耗今年为54GW,2028年达90GW在此期间,AI处理从占今年所有功用量的8%到2028年15%至20%
雷竞技电脑网站电和冷却一直是数据中心构建者中思想最深处,而另一个常被忽视的考量是网络吞吐量和连通性AI培训中,每个GPU需要自己的网络端口并拥有极高的吞吐量
GPU大为超出网络端口使用GPU处理内存900Gbps数据并计算100Gbps织物会减慢GPU的下降速度,因为GPU必须等待网络处理所有数据Infiniband比传统铜线快得多, 但也贵十倍
避免热密度的一个方法就是物理分布硬件不填充机架,物理分离等但由于多兆字节数据需要移动 延时性能的敌人
建言求解
Schneider提出若干建议首调用240/415V系统替换120/280V电源分配,以减少高密度机架内电路数并推荐多功率分配单元提供足够功率
设定20kW/rack空气冷却阈值是另一项建议20kW以上Schneider建议使用液化冷却鉴于空气冷却最大值为30kW,我相信Schneider对空气冷却极限比较保守或试图出售液化冷却硬件
有多种液冷却形式,但Schneider主张直接液冷却铜板像空气冷却系统一样连接到CPU, 但它有两管:冷水从管道中流出,吸收热量,从另一管流出,循环冷却
Schneider似乎不是沉浸式冷却风扇,因为沉浸式液态含氟化碳可能污染
Schneider还警告说,液冷却普遍缺乏标准化性,因此彻底基础设施评估-由设备经验专家做-很重要。假设设施可首先翻新雷竞技电脑网站多数数据中心使用液化冷却添加基础设施时中心正在建设中,而不是事后
还有其他多项建议和指导白纸.