AI初创公司Graphcore推出Nvidia竞争对手

Graphcore将推出新的人工智能处理器Colossus MK2 IPU,与Nvidia的安培A100 GPU一较高下。

kohb / Getty Images

英国一家芯片初创公司发布了据称是世界上最复杂的人工智能芯片“巨像”MK2或GC200 IPU(智能处理单元)。Graphcore针对人工智能应用,MK2将与Nvidia的安培A100 GPU相抗衡。

MK2及其前身MK1是专门为处理大型机器学习模型而设计的。MK2处理器有1,472个独立的处理器核和8,832个独立的并行线程,所有这些都由900MB的处理器内RAM支持。

ipu机器用于机器智能计算 Graphcore

Graphcore表示,MK2在伯特-大训练性能上比MK1提高了9.3倍,在伯特-3层推理性能上提高了8.5倍,在efficiency - b3训练性能上提高了7.4倍。

BERT,即来自transformer的双向编码器表示,是一种由谷歌开发的用于基于自然语言的搜索的自然语言处理预处理技术。

Graphcore并不仅仅停留在提供芯片上。作为一家相对较新的初创公司(成立于2016年),Graphcore围绕其芯片建立了一个引人注目的生态系统。大多数芯片创业公司只专注于他们的硅,但Graphcore提供了更多。

该公司称,通过新款IPU-Machine M2000销售GC200, M2000在一个1U机箱中装有4块GC200芯片,总计算能力达到每秒1千万亿次浮点运算。Graphcore注意到,您可以从直接连接到现有x86服务器的单个iep - machine M2000机器开始,或者将总共8台iep - machine M2000连接到一台服务器。对于较大的系统,它提供IPU-POD64,包括16台内置在标准19英寸机架中的IPU-Machine M2000s。

通过Graphcore的新IPU-Fabric技术,大规模连接IPU-Machine M2000s和IPU-PODs,该技术从头开始为机器智能通信设计,并提供专用的低延迟fabric,将整个数据中心的IPUs连接起来。雷竞技电脑网站

Graphcore的虚拟ipu软件集成了工作负载管理和编制软件,可以为许多不同的用户提供培训和推断,并且允许在不同的作业中调整和重新配置可用资源。

这家初创公司表示,它的新硬件完全是即插即用的,用户最多可以连接64000个IPUs,运算能力达到每秒16 exaFLOPs。

这是一个很大的主张。英特尔、Arm、AMD、富士通和英伟达仍在向exaflop的目标迈进,而Graphcore声称达到了它的16倍。

Graphcore的另一个关键元素是使用IPU从头设计的Poplar软件栈,并完全集成了标准的机器学习框架,因此开发人员可以轻松移植现有模型,在熟悉的环境中快速启动和运行。对于希望完全控制IPU以最大限度地利用其性能的开发人员,Poplar支持用Python和c++直接进行IPU编程。

Graphcore有一些重要的MK2系统早期用户,包括牛津大学、美国能源部的劳伦斯伯克利国家实验室和专注于自然语言处理和语音识别的J.P. Morgan。

IPU-Machine M2000和IPU-POD64系统今天开始接受预订,从2020年第4季度开始批量出货。Early access的客户可以通过Graphcore的云合作伙伴Cirrascale评估云中的IPU-POD系统。它计划在未来几个月宣布OEM和渠道合作伙伴。

加入网络世界社区有个足球雷竞技app脸谱网LinkedIn对最重要的话题发表评论。

版权©2020Raybet2

工资调查:结果在