
三星电子正式宣布其PIM(Processing in Memory,存内计算)技术实现规模化量产,率先将这一打破传统计算架构瓶颈的创新技术落地商用。此次量产的PIM产品主要搭载于LPDDR5X内存,后续还将逐步延伸至下一代LPDDR6标准,标志着AI计算领域在攻克“存储墙”难题上取得关键性突破,为大模型推理、边缘AI等场景带来能效与性能的双重革新,同时也巩固了三星在全球存储芯片与AI硬件领域的领先地位。
随着生成式AI、自动驾驶、实时视频分析等场景的爆发式增长,全球算力需求正呈现指数级攀升,但传统冯·诺依曼架构的固有缺陷已成为制约AI发展的核心瓶颈——“存储墙”难题日益凸显。在传统架构中,计算单元(CPU/GPU)与存储单元(内存)相互分离,AI任务执行过程中,海量数据需在两者之间频繁搬运,不仅产生了巨大的延迟,更导致能耗浪费严重。数据显示,在大模型推理场景中,数据搬运消耗的能耗占比高达60%-70%,而GPU的算力利用率甚至不足8%,大量硬件资源被浪费在非计算环节,严重制约了AI技术的落地效率与应用体验。
作为后摩尔时代的核心技术革新方向,PIM存内计算技术的核心突破的在于“存算融合”——将计算单元(ALU)直接嵌入内存的存储体级别,让数据无需传输至CPU或GPU,直接在内存内部完成计算操作,从根源上消除了数据搬运带来的延迟与能耗损耗,完美破解“存储墙”困境。三星此次量产的PIM产品,历经多年技术研发与验证,已完成HBM-PIM及相关系列产品的技术验证(PoC),形成了覆盖高带宽内存与移动内存的全栈产品矩阵,可适配不同场景的AI计算需求。
据三星电子DRAM设计团队负责人孙教民在“SEMICON Korea 2026”主题演讲中介绍,当前由于内存带宽不足,AI无法100%发挥GPU的性能,而PIM技术的量产将彻底改变这一现状。此次量产的LPDDR5X PIM产品,专门针对智能手机和终端AI设备进行了优化,峰值内部带宽可达102.4 GB/s,FP16性能102.4 GFLOPS,INT8性能204.8 GOPS;在GPT-2推理场景中,相比传统NPU+LP5方案,能耗降低72%,内存流量减少99%,大幅提升了端侧AI设备的续航能力与响应速度。与此同时,面向数据中心场景的HBM-PIM产品,可提供1.1TB/s的内存带宽,由96颗AMD MI100-PIM GPU组成的集群,总PIM性能达471.9 TFLOPS,在T5-MoE模型上,相比传统GPU集群,能效提升3倍,性能提升2倍,能有效降低数据中心的运营成本与碳排放。








