几个月前,三星和Xilinxco-introduced一个SSD板载Xilinx FPGA处理器,使计算存储非常真实。SSD意味着数据可以在它所在的地方进行处理,而不是将数据从内存中移到内存中。
现在他们已经推出了集成了人工智能(AI)处理器的高带宽内存(HBM),称为HBM- pim。新的内存处理(PIM)架构将人工智能处理能力引入内存,而不是将内容移进移出处理器,从而加快数据中心、高性能计算(HPC)系统和支持人工智能的移动应用的大规模处理。雷竞技电脑网站
HBM是一种不同于DRAM的内存。它是垂直堆叠的,而不是在2D设计中展开,所以数据通过内存移动的距离更短。因此,HBM芯片比DRAM更小,但也更贵,比同等容量的DRAM多约30%。
HBM主要安装在处理器、cpu和gpu上,通常位于处理器芯片旁边,以最大限度地减少行程。它在高性能计算和人工智能应用中找到了自己的位置,在这些应用中,金钱比大众市场更重要。
三星指出,目前大多数计算系统都是基于冯·诺伊曼架构的,它使用独立的处理器和内存单元来执行数据处理任务。这意味着通过内存和CPU总线在CPU和内存之间来回移动数据。