新建NvidiaHGXH200设计支持高性能计算工作量培训自定义模型

Nvidia宣布一个新的AI计算平台Nvidia HGX H200,Turbo加费版公司NvidiaHopper架构,由它最新的GPU提供Nvidia H200Tensor核心提供电力
公司还正与HPE联手提供超计算系统,以Nvidia GraceHoperGH200超级芯片为主基因化AI训练
企业对AI兴趣剧增刺激对NvidiaGPU处理染色AI和高性能计算工作量的需求最新GPU-Nvidia H200首次提供HBM3e高带宽内存,比当前HBM3快50%,允许交付141GB内存4.8兆字节/秒,提供容量比前身NvidiaA100高2倍和2.4倍
Nvidia首台HBM3处理器GH200GraceHopper超级芯片平台表示时间.
Nvidia H200的引入将带来进一步的性能飞跃,公司在报表中表示,并补充道,与其H100提供量相比,新架构将近倍推导速度元700亿参数LLMLlama-2.参数关联方式神经网络配置化
Ian Buck表示, 超大规模HPC副总裁Nvidiaa使用大型快速GPU存储器高效处理大量数据附加语句公告.Nvidia H200, 行业端对端AI超计算平台 快速解决世界一些最重要的挑战
H200驱动系统预期2024第二季度开船,HGXH200服务器板提供Nvidia H200Tensor核心GPU四向八向配置
八道HGX H200提供32多页FP8深学习计算和1.1TB聚合高带内存
petaflop表示计算机性能度量 计算到至少千兆或千分之一乘浮点运算FP8为八位浮动点格式规范,旨在方便硬件平台共享深学习网络
雷竞技电脑网站H200可部署于各种数据中心,包括馆舍、云层、混合云层和边缘上,GH200GraceHoper超级芯片平台上也可以使用
Nvidia全新HPEAI培训解决方案
两周后英国Isambard-AI超级计算机HPECrayEX超级计算机技术驱动NvidiaGH200GraceHopper超级奇两家公司再次联手提供一个新的超计算统包系统支持开发基因化AI
新系统由预配置和预测试AI和机器学习软件组成,并包括液冷超级计算机、加速计算、联网、存储和服务依据Isambard-AI相同的架构,解决方案将整合HPECray超计算技术并受NvidiaGraceHopperGH200超级奇普斯驱动,允许AI研究中心和大型企业加速模型培训2-3倍
归根结底,这个解决方案向组织提供大AI工作量所需的前所未有规模和性能,如大语言模型和深学习推荐模型培训新闻稿.
系统将于12月通过HPE在30多个国家普遍提供