云服务提供商Lambda正努力建设GPU云处理AI工作量
AI云服务提供商Lambda分到3.2亿美元现金注入建设GPU服务,提供AI培训集群,由千千位Nvidia加速器组成
Lambda最新云公司提供GPU处理-而不是标准CPU处理-致力于所有事物AI, 特别是推理和培训脉冲器CoreWave电荷园都提供相似云GPU服务
Lambda准备部署千分之十NvidiaGPUs, 包括当前H100顶级加速器和Nvidia即将推出G200GPU加速器,Lambda还想部署Nvidia混合GH200CPU/GPU超级芯片
雷竞技电脑网站Lambda表示的使命是构建##1AI计算平台,并实现这一点,“我们需要多NvidiaGPUs、超快联网、多数据中心空间和多大新软件令你和你的AI工程队欢欣鼓舞”。
3.2亿SeriesC由数个风险基金牵头,包括BCapital公司、SK电信公司Towe PriceAssociates公司和现有投资商Fund1517Mercato伙伴公司Bloomberg Beta和Gradient Vente
Lambda将加速GPU云增长, 保证AI工程团队能访问上千NvidiaGPUs并高速NvidiaQuantum-2Infiniband联网
雷竞技电脑网站NvidiaCEOJensen黄耳乐曲,因为他一直在推崇专用AI数据中心概念,即AI工厂,这些工厂完全由GPU组成,而不是传统数据中心发现的x86CPU组成。Nvidia暴风区后最近发来的收入调用黄长谈GPU处理扩展至其他领域的好处,
Lambda自2017年以来一直与GPU系统合作,Lambda提供专为稠密部署设计同地服务并转售NvidiaDGX超级POD
后一种可能是Lambda打包,因为租AI硬件比购买和维护便宜得多。这使得AI提高服务量,允许客户租用AI备忘设备时间,而不是自己购买时间。
Lambda真正的挑战可能是获取硬件TSSC正在尽速制作芯片,但需求巨大,余下数周数月积存