即权力的企业在不断发展的速度比以往任何时候都允许我们做的比我们想象的更多的技术。那些曾经只出现在科幻电影中的东西实际上是开始了新生活。
这些领域之一是人工智能(AI)的领域。我们是在具有机器诊断癌症,绘制出宇宙,接管危险的工作,并围绕推动我们的边缘。缺点的快速发展一直处于复杂的上升。基础设施和软件放在一起给力基于人工智能的系统往往需要几个月的时间来构建,调整和调整,使其运行最优。
雪上加霜的困难是,AI基础设施通常是由数据科学家并不具有技术头脑的IT团队同级别谁部署。
纯存储提供了一个交钥匙方式AI基础设施
在Nvidia的GPU技术大会(GTC),纯存储宣布的交钥匙解决方案,以简化AI基础设施的部署。The product, known as AIRI (AI Ready Infrastructure), is a validated, optimized solution that includes Pure Storage’s FlashBlade, 100 Gig-E switches from Arista, four DGX-1 servers from Nvidia, and all the software required to operationalize AI at scale. The product is supported by the Nvidia GPU Cloud deep learning stack and Pure Storage AIRI Scaling Toolkit, enabling data scientists to get to work in a few hours instead of months.
该产品是类似于其他融合基础设施产品,如Cisco公司的FlexPod和戴尔,EMC的VxBlock,这为企业提供站起来私有云在一天内下一个交钥匙的方式。我接触过这两种产品的客户,他们告诉我,融合产品采取一切复杂了部署,让企业可以立即开始使用的基础设施。融合基础设施是巨大的飞跃私有云,我希望它有AI产生类似的影响。
到AI一个DIY的方法可以充满复杂性和交货时间长
随着AI,需要一个简单的选择就更大了,因为AI的过程,比如学习和推理,是极其数据密集型。所以,它暴露了在基础设施瓶颈,优化基础设施可以是一个长期的,旷日持久的过程。例如,TensorFlow软件是软件堆栈的一部分,就有数以百计的选择吧。随着AIRI,所有预先配置的是为部署组织完成。
数据科学家在组织中薪酬最高的员工的,所以有他们身边坐下,而基础设施组件放在一起浪费时间和金钱成本。
AIRI是高度可扩展和灵活的
AIRI为组织提供计算能力和存储了大量的。该产品最初可以用单个DGX-1系统,它提供了1个千万亿次的性能配置,但它可以很容易地扩展到四个,四倍的性能。一个NVIDIA的技术最大的好处是,它线性扩展,于是四DGX-1系统提供了3倍,没有退化的表现。
纯存储阵列可以容纳多达15个52 TB刀片超过750 TB的总容量。存储的规模是很重要的,因为AI需要在学习阶段大量的数据。事实上,人工智能研究往往取决于使用生成对抗网络(甘斯),以提高学习的速度。与GANS中,AI生成大量的合成数据的,从而增加了高容量的真实数据。
一个AIRI有趣的方面是,它使用以太网连接组件。在历史上,这样的产品会使用InfiniBand的,因为速度较高和延迟要低得多。今天,特别是在阿里斯塔,以太网的延迟已经得到封闭,InfiniBand和速度是等价的。以太网有一个非常积极的进化路线图出400 GIG-E和更简单,比的InfiniBand更灵活,使其成为一个更合乎逻辑的选择。
我相信AI已经达到了一个转折点,而它的使用会爆炸在未来的几年。类似于当私有云走进自己的,IT团队将汇集所有必要的权力的AI程序所需的存储,服务器,软件和网络基础设施的任务。一种方法是将所有买积木和计件在一起,但对于大多数企业来说,更好的方法是利用一个交钥匙的产品,如纯存储的AIRI。
注:在这篇文章命名的厂商,阿里斯塔,思科,和Nvidia是ZK研究的客户。