(来源:研报虎)
推理时代性能瓶颈转移:从“算力”到“运力”。小批量、低精度、MoE的推理任务对计算本身要求不高,但在分布式部署下,多卡之间的通信延迟往往成为效率瓶颈。为此,行业正在把互联方式从机柜之间的Scale-Out网络转向机柜内部的Scale-Up网络(NVLink、UALink、PCIe等),利用更短的传输距离实现更高带宽和更低延迟,从而提升整体吞吐。在Scale-Up网络架构中,AI服务器内部使用的switch芯片大致可分CPU–GPU连接与GPU–GPU互联两类。前者主要负责把CPU的有限上行通道扩展出来,连接到多块GPU、网卡以及存储设备。GPU–GPUswitch芯片则直接服务于GPU之间的大规模数据面通信。是GPU集群实现高带宽、低延迟的核心。
GPU+Switch紧耦合背景下,GPU百花齐放带动Switch格局生变。早先英伟达时代,NVGPU + NVLink Switch共同掌握AI“霸权”。不同于训练时代NVIDIA独占的封闭体系,推理市场的加速芯片更加多样,PCIe6/7、UALink、NeuronLink等开放标准为第三方互联厂商打开了机会窗口。海外市场Astera Lab一骑绝尘。Astera Lab深度参与AMD的UAlink和AWS的Trainium NeuronLink生态,占据了非NVIDIA阵营的核心互联位置,并有望伴随AI基建扩张持续放量。
市场空间:AI服务器崛起驱动Switch芯片市场高增,2025-2027市场规模翻倍增长。据TrendForce,全球AI服务器在2022–2029年的出货量复合增速约为27.2%。我们选取2023–2027年的出货量作为测算基础。在配置假设上,我们参考AI服务器的典型参数:单机搭载8颗GPU、2颗CPU。根据主流互联方案(图1),设定GPU与Switch的配比为2:1;CPU–Switch的配比依据主流服务器的dual Root架构,取1:1,从而推算出AI服务器对GPU互联Switch与CPU-GPU互联Switch芯片需求量。在价格假设上,据Global Tech Research,PCIe Gen5 Switch芯片的ASP为450美元💵,约合3500元人民币。后续迭代产品价格随代际提升,假设PCIe Gen6/Gen7的ASP约为7000元人民币。在此基础上,再结合各代产品的年度渗透率预估,推算得到整体ASP变化趋势。由此测算得出2025年市场规模约为491.39亿元;2027年市场规模扩大至1022.23亿元。
投资建议:重点推荐盛科通信、海光信息,建议关注澜起科技。
-盛科通信:在高规格以太网交换芯片上持续推进:最大端口速率800G、交换容量12.8T/25.6T的产品已完成向客户送样与导入测试,并在2024年实现小批量交付。
-海光信息:于24年报中披露开展先进封装与高带宽低时延Chiplet互联相关研发,并在高速I/O支持上涵盖PCIe、CXL。
-澜起科技:于2025年1月22日发布PCIe 6.x/ CXL 3.x Retimer并已向客户送样;此前其PCIe 5.0 / CXL 2.0 Retimer已量产。
风险提示:地缘政治不确定性、需求不及预期、技术迭代风险等