MLCommons,开发人工智能技术培训的标准算法,揭示了一个新的测试的结果决定了系统速度训练算法专门用于创建像ChatGPT聊天机器人。
MLPerf 3.0旨在提供一套行业标准的基准评估ML模式训练。模型训练可以是一个相当漫长的过程,几周,甚至几个月根据数据集的大小,需要大量的电力消耗,所以训练可以得到贵。
MLPerf训练基准套件是一个完整的一系列测试,压力机器学习模型,软件和硬件为范围广泛的应用程序。它发现的性能收益1.54 x就在6个月前相比,x x 33岁至49岁之间相比在2018年第一轮。
已经尽快AI和毫升、MLCommons一直在更新其MLPerf培训标准。最新的修订,培训3.0版本培训,增加了测试大型语言模型(LLM),专门为GPT-3, LLM ChatGPT使用。这是第一个版本的基准等测试。
总之,测试了250性能结果来自16个厂商的硬件,包括系统从英特尔、联想和微软Azure。特别是缺席测试是AMD的竞争激烈的AI加速器的本能。(AMD并未对此事作出回应媒体的时间。)
还值得注意的是,英特尔没有提交至强或GPU马克斯,而是选择测试它的高迪2专用人工智能处理器Habana实验室。英特尔告诉我它选择了高迪2,因为它是专为高性能、高效、深度学习培训和推理,尤其能够管理生成AI和大型语言模型,包括GPT-3。
使用3584 H100 gpu集群的建立与人工智能云合作启动CoreWeave, Nvidia发布培训时间为10.94分钟。Habana实验室花了311.945分钟,但一个小得多的系统配备384 Gaudi2芯片。的问题就变成了更便宜的选择当你在收购成本和运营成本因素?MLCommons没有进入。
更快的速度基准反映硅,自然,但也在算法和软件优化。优化模型对每个人来说都意味着更快的发展模式。
的基准测试结果展示各种配置执行,所以你可以根据配置和价格决定是否适合您的应用程序性能。