据报道,『英伟达』已取消其第一代SOCAMM(Small Outline Compssion Attached Memory Module)的推广,并将开发重点转向名为 SOCAMM2 的新版本。这一调整旨在进一步优化内存模块性能,更好适配AI『服务器』领域的需求。
SOCAMM是『英伟达』(NVIDIA)开发的新型内存技术,旨在为AI『服务器』提供高带宽、低功耗的内存解决方案。该技术通过模块化设计实现类似HBM(高带宽内存)的性能,但成本更低。业内认为,SOCAMM2为高性能计算提供了坚实的基础,功耗大幅降低,在同容量下带宽提升至2.5倍,显著降低AI推理延迟,主要面向HPC、通用『服务器』、AI集群『服务器』、AI训练/推理、智能辅助驾驶和工业边缘网关等应用场景。随着生成式 AI、自动驾驶等场景对内存带宽需求的指数级增长,SOCAMM2 凭借性价比优势,预计在2025-2027年成为AI『服务器』的主流选择之一。