NVIDIA宣布推出一个名为Grace的HPC CPU的2023年推出

在其GPU技术会议上,NVIDIA讨论了它的第一个数据中心CPU,该CPU旨在填补其服务器处理器行中的漏洞,但细节很少。

人工智能AI ML机器学习摘要
dny59 / kentoh / getty图像

NVIDIA通过BANG踢出了GPU技术会议(GTC)2021:一种用于高性能计算(HPC)客户端的新CPU - 它的第一次数据中心CPU - 称为Grace。

基于ARM NeoVerse架构,NVIDIA声称恩典能够比目前用于复杂的人工智能和HPC工作负载的最快服务器更好的性能。

但这比较了比较。在2023年之前,恩典不会发货,在这两年中,竞争对手也将毫无疑问地借给他们的游戏。但没有人指责首席执行官詹恒黄那样。

NVIDIA使得Grace不打算对抗英特尔的Xeon和AMD的EPYC处理器来竞争头脑。相反,恩典更像是一个利基产品,因为它专门设计与NVIDIA的GPU紧密联合,以消除复杂AI和HPC应用的瓶颈。

nvidia在里面raybet36 如果所有反对意见都得到解决,该交易将于今年晚些时候完成。

“领先的AI和数据科学正在推动当今的计算机架构超出其限制的限制,以处理不可想取的数据量,”黄说。“使用许可的ARM IP,NVIDIA设计了恩典,作为专门针对巨型级AI和HPC的CPU。汇集了GPU和DPU,Grace为我们提供了第三种计算的基础技术,以及重新建立数据中心的能力雷竞技电脑网站Advance Ai。Nvidia现在是一家三芯片公司。“

Nvidia的DGX系列服务器使用AMD的Epyc cpu(你不会认为他们会使用英特尔吧?)来启动和协调一切,并协调安培图形处理器。Epyc非常适合运行数据库,但它是一款通用计算处理器,缺乏英伟达所需的那种高速I/O和深度学习优化。

Nvidia没有给出很多细节,除了说它将建立在未来的手臂版本新奥威权核心使用5纳米制造过程,这意味着它将由TSMC构建。Grace还将在CPU和GPU之间使用NVIDIA的本土NVLINK高速互连。计划2023年的新版本将在CPU和GPU之间提供超过900gbps的带宽。这比AMD用于CPU-GPU通信使用的PCI Express快得多。

两个超级履历的客户

尽管Grace要到2023年才发货,但英伟达已经有了两个超级计算机客户。瑞士国家超级计算中心(CSCS)和洛斯阿拉莫斯国家实验室今天宣布,他们将订购基于Grace的超级计算机。这两个系统都将由HPE的Cray子公司(还有谁?)建造,将于2023年上线。

CSCS的系统称为ALPS,将替换其当前的PIZ Daint系统,Xeon和NVIDIA P100集群。CSCS声称ALPS将提供20个AI绩效的EAAFLOPS,如果他们交付,这将是令人难以置信的,因为现在我们的最佳是日本Fugaku.只是一个Exaflop。

ARM在数据中心的困难雷竞技电脑网站

总的来说,这是NVIDIA的智能移动,因为通用ARM服务器处理器还没有做得好。NVIDIA有自己的失败数据中心CPU市场。雷竞技电脑网站十年前,它推出了项目丹佛,但它从未离开实验室。丹佛是一般的CPU,而恩典高度垂直和专业化。

加入网络世界社区有个足球雷竞技appFacebooklinkedin.评论是最重要的主题。
有关的:

版权所有©2021.Raybet2

IT薪水调查2021:结果是