一、智算中心AIDC基础知识扫盲
1、什么是算力
算力,Computational Power,就是计算能力,计算机系统处理数据和执行任务的速度与效率。
算力有广义和狭义之分,狭义上看,同样认为算力是指设备通过处理数据,实现特定结果输出的计算能力;从广义上看,将算力定义为数字经济时代新生产力,是支撑数字经济发展的坚实基础。
据信通院测算,每投入1元的算力,可以带动3至4元的经济产出。每提高一个算力指数点,可以带动数字经济增长 0.36% 和 GDP 增长 0.17%。
算力实现的核心是 CPU、GPU、NPU、FPGA、ASIC 等各类计算『芯片』,『芯片』承载在高性能计算集群、边缘计算节点、『服务器』、电脑、各类智能终端等,对海量数据和各种『数字化』应用进行加工和计算。算力数值越大代表综合计算能力越强,常用的计量单位是每秒执行的浮点数运算次数(Flops,1EFlops=10^18Flops)。
2、算力单位和精度
(1)算力的单位:通常采用FLOPS(Floating Point Operations Per Second)表示,每秒钟能够完成的浮点运算或指令数,例如一台计算机每秒钟可以完成10亿次浮点运算,那么它的FLOPS 值就是1G FLOPS(1 Giga FLOPS)。
(2)浮点运算:就是带小数点的加减乘除运算
计算机内部以二进制存储数据,最初只能处理整数。但现实世界中,很多数据,需要处理小数。浮点运算通过科学计数法的原理,将小数转换为可计算的形式,解决了计算机处理小数的难题。
(比如,1.1+1.3 就是典型的浮点运算,计算机是二进制,1 就是 1,2 就变成了 “10”,3 是 “11”,0.1 可以看成是1除以10的结果, 只需告诉CPU , 1 后面有多少个 0 整除的整数,计算机在处理小数点的时候,就多了好几个运算步骤。所以,浮点运算的速度也就成了衡量计算机性能的标准。
知识卡片
OPS:Operations Per Second,每秒的运算次数;
TOPS:Tera Operations Per Second,每秒执行万亿次的运算次数
FLOPS:Float Point Operations Per Second,每秒执行的浮点运算次数。
算力的计量单位,从小到大,依次是:
KFLOPS,kilo flops(每秒1000次浮点运算,10^3)
MFLOPS,million flops(每秒1百万次,10^6)
GFLOPS,giga flops(每秒10亿次,10^9)
TFLOPS, Tera flops(每秒1万亿次,10^12)
PFLOPS, peta flops(每秒1000万亿次,10^15)
EFLOPS, exaflops(每秒100亿亿次,10^18)
根据参与运算数据精度的不同,算力可以分为以下几种:
- 双精度算力(FP64):使用 64 位(8Bytes)来表示一个浮点数,精度较高,用于大规模科学计算、工程计算,适用于超算『服务器』;
- 单精度算力(FP32):使用 32 位(4Bytes)来表示一个浮点数,精度略逊于FP64,存储空间较小部分科学计算和工程计算,使用普通的同用计算,衡量算力中心IDC的基本水平;
- 半精度算力(FP16):仅占用 16 位空间,存储空间大幅减小,精度进一步降低,常用于模型训练过程中参数和梯度计算。一般默认使用FP16来表示智算中心算力规模,适用于AI『服务器』;
- 整型算力 (INT8、INT4):8位整数,用于量化神经网络的计算,在低功耗、嵌入式系统和边缘设备等领域。
简单说,与智算中心或者AI相关(默认是FP16)、超算HPC(默认是FP64)
3、算力的分类
算力按照功能类型来划分,可分为通算、智算、超算,特点和区别如下:
- 通算:为基础算力,通用性强,适合日常任务,以CPU为主,单精度运算(FP32)建设灵活。
- 智算:即智能算力,专注于AI任务,以GPU和AI『芯片』(GPU、NPU、ASIC、FPGA)为主,适合AI和机器学习等低精度计算。
- 超算:高性能计算,以高精度为主(双精度浮点运算FP64以上),适合科学计算、大规模和复杂模型,建设规模大、成本高。
类别
特点运算精度『芯片』架构建设模式通算通用性强,适用于日常计算任务,性能适中,成本较低。以单精度(FP32)和双精度(FP64)为主,满足常规计算需求。以CPU为主(如x86、ARM架构),适合串行计算和通用任务。企业自建、分布式建设,以商业『服务器』为主,规模灵活,成本较低。智算专注于AI任务,擅长并行计算和高吞吐量,针对深度学习等场景优化。以低精度为主(如FP16、INT8),适合AI模型的训练和推理。以GPU、TPU、AI加速『芯片』为主,适合并行计算和高吞吐量任务。集中式或分布式建设,通常以AI集群形式部署,规模较大。超算计算能力极强,用于解决大规模科学和工程问题,成本高。以高精度为主(如FP64),满足科学计算的精确性要求。以高性能CPU、GPU、专用加速器为主,支持大规模并行计算。集中式建设,政府主导为主,规模庞大,成本极高。
4、什么是智算中心AIDC
智算中心,Artificial Intelligence Data Center, 简称 AIDC,是在传统『数据中心』(IDC)的基础上,基于 GPU、ASIC、FPGA 等人工智能『芯片』及计算框架构建的人工智能基础设施,可以支撑大量数据处理和复杂模型训练。
『数据中心』自『互联网』时代,在移动『互联网』、云计算、电商及短视频等行业的推动下快速发展,而生成式AI的兴起正驱动其向重视计算效能与硬件配置的智算中心转型。
另外,从广义上来看,智算中心AIDC是融合算力、数据算法的新型基础设施,通过数据服务、算法模型服务加速大模型的商业化应用,推动 AI产业化和产业 AI化,是传统云的智能化升级。
智算中心的核心功能包括 AI模型训练与优化、数据存储与分析 、算力服务与共享、应用开发与创新等。
图片来源:中国智算中心(AIDC)产业发展白皮书
5、智算中心AIDC与『数据中心』IDC的区别
维度
『数据中心』IDC
智算中心AIDC
算力类型
提供基础算力,用于
数据存储和虚拟化、通用计算、大数据分析等
提供智能算力,以用于AI大模型的训练和推理计算,语言、图像和视频的智能处理
『芯片』
以 CPU 为中心
以 xPU 为中心
技术架构
用冯·诺依曼的主从架构
采用更加先进的全互联对等架构
散热模式
传统的风冷散热
液冷或风液混合的散热技术
应用场景
电子商务平台、『社交媒体』、即时通讯、音视频与流媒体平台等
自动驾驶、科研计算、生成式 AI 智能语言
模型、公共安全系统、物联网等
机柜规格
普遍在 2-10KW
12KW-24KW 或以上
代表企业
万国数据、世纪互联、数据港、润泽科技、光环新网等
浪潮、商汤科技、紫光、科大讯飞、华为等
二、智算中心发展历程
(1)起源与萌芽:
2000年『互联网』产业兴起,2007年大数据、云计算技术兴起,带动了云计算『数据中心』的建设,这些『数据中心』主要面向个人或企业提供虚拟机计算能力、数据储存和网络传输等服务。2012年以来,以深度学习为代表的新一代人工智能技术快速突破和应用,对算力的需求不断增加,人工智能算力中心应运而生,为智算中心的发展奠定了基础。
(2)初步发展与政策推动:
2025年3月9日,科技部宣布支持多个城市建设国家新一代人工智能创新发展试验区。2025年4月20日,国家发展改革委首次明确新型基础设施的范围,包括以智能计算中心为代表的算力基础设施。2025年11月17日,国家信息中心联合浪潮发布了《智能计算中心规划建设指南》,这是首份对智能计算中心进行全面深入解读的权威报告。
(3)快速建设与项目落地:
2025年5月31日,武汉人工智能计算中心正式投入运行,成为科技部批复的18个国家人工智能创新发展试验区中首批投入运营的项目。2022年1月24日,商汤科技宣布其位于上海临港的人工智能计算中心正式启动运营,成为亚洲最大的人工智能计算中心之一。2022年,国家“东数西算”工程启动,芜湖『数据中心』集群等成为全国十大『数据中心』集群之一。2022年9月3日,《东数西算战略下绿色智算中心产业发展研究报告》发布。
(4)规模扩张与广泛应用:
截至2023年8月,中国已有超过30个城市建设智算中心,总建设规模超过200亿。2025年,沈阳智算中心三期扩容项目完成,总计算力达到450P,成为东北算力规模最大的国产化自主可控智算中心。
图片来源:泽平宏观研究
三、市场空间和商业模式
1、全球和我国市场
根据IDC、中国信通院测算,2030年全球算力规模有望达到16ZFlops。2023—2030年全球算力规模年均复合增速达约50%。
根据IDC数据,2024 年中国智能算力规模为725.3EFLOPS,预计 2028 年将达到 2781.9EFLOPS,2020-2028 年中国智能算力规模的复合增速约为 57.1%。
另外,根据Synergy Research 数据,截至2024年底,全球超大规模运营商运营的大型『数据中心』数量已增至1136个,相比五年前翻了一番。Synergy预测,超大规模『数据中心』的总容量再次翻倍的时间将不足四年,每年将有130到140个新的超大规模『数据中心』投入使用。
2、建设和运营主体
智算中心建设形成了“地方政府主导+『互联网』巨头企业主导”+AI服务厂商配合”的三条主线。
地方政府主导建设的智算中心呈小而散的特征;『互联网』、云服务厂商、电信运营商和企业,具有完善的供应链资源、技术能力强且客户资源丰富多采用规模化、集中化的建设模式。AI 服务商为纵向一体化,『芯片』、『服务器』等硬件资源获取强但 IDC 运营弱。
主体
战略目标
优劣势
案例
地方政府
响应国家战略,推动政策落地;促进区域产业发展
优势:政策、资金、产业园区客户;
劣势:缺乏 IT 技术、供应链经验、运营能力不足
北上广等30多个城市
『互联网』大厂、云企业等
满足自身大模型训练需求;
拓展算力业务
优势:充足的资金、技术和客户、供应链资源,较成熟的云算力业务模式;
劣势:自有大模型与大模型训练客户形成竞争互斥
腾讯合肥智算中心、中国电信武清智算中心等
AI企业和『芯片』、『服务器』厂商
纵向一体化、企业增长
优势:AI 『芯片』、算法、『服务器』等硬件资源获取能力;
劣势:缺乏 IDC 供应链和机房建设运营能力
协鑫智算(上海)中心、浪潮新疆克拉玛依智算中、商汤临港 AIDC、理想汽车智算中心、小鹏 “扶摇” 智算中心
截至 2023 年底,地方政府(城投)主导建设的智算中心共计 31 个,个数占比36%,零散分布于全国 26 个城市,投资总额超 373 亿元;企业主导建设的智算中心共计 40 个,个数占比 47%,其中大型智算中心共计 32 个,总投资额超 1553 亿元;另外,政企合建的智算中心共计 15 个,个数占比 17%,投资金额超 287 亿元。
3、四大商业模式
(1)批发型&零售型
根据商业模式不同,我国AIDC可分为批发型服务商、零售型服务商。
批发型自建大型算力中心,通常以机房模块单元为最小单位进行出租,主要面向大型云计算厂商等大客户,提供托管、运维、云服务一站式服务。批发型一般深度绑定大型云服务厂商,毛利率较低,但客户需求相对稳定,对公司资源整合,快速建设扩张、大客户服务能力要求较高。
零售型算力中心一般自建算力中心或租用基础电信运营商、面向中小客户,以机柜为最小出租单位,提供托管及增值服务。通常情况下毛利率较高,但需求存在一定不确定性,对公司精细运维能力与销售能力要求较高。
(2)IaaS、PaaS、SaaS、MaaS
智算中心以多层次服务体系覆盖全产业链需求,形成四大核心商业模式:
IaaS(基础设施即服务):提供机房托管和算力租赁,供应商包括『数据中心』服务商及中立智算中心,需求方为头部云商及 AI 公司、大型央国企、中小型科技公司、IT 公司、非连续需求的科研机构等;
PaaS(平台即服务):头部 IT 公司提供 AI 开发工具链,赋能中小企业快速构建 AI 应用;
SaaS(软件即服务):垂直行业头部企业输出标准化 AI 应用,满足小型企业智能化需求;
MaaS(模型即服务):成熟大模型供应商基于客户需求定制精调行业模型,服务中小垂直领域企业。
(3)AIDC收入模式
智算中心业务,收入模式分为基础服务、增值服务、云服务。
收入端:AIDC收入由机柜数量、上架率和单机柜租金决定。其中机柜数量主要取决于『数据中心』的能耗/电力指标情况;机柜上架率和单机柜租金主要取决于『数据中心』区域位置、『数据中心』建设级别及功率标准、下游客户资源导入能力及议价能力。
成本端:AIDC成本主要包括固定资产成本和运营成本。固定资产成本包括建设AIDC机房中的土地成本、建设支出、设备支出等,建设完成后通过折旧摊销影响利润水平。运营成本包括电力成本、折旧、人工费用、财务费用等,其中电力成本占比最高,占运营成本的60%左右。
图片来源:浙商证券
四、产业链
AIDC产业链上游:主要包括土建基础设施和IT基础架构的建设。
中游:智算服务提供商、云服务供应商和IDC服务商等基于自身优势,提供智算服务及运维解决方案。
下游:智算应用,生成式 AI 算力需求占主体,包括『机器人』️、自动驾驶、AI医疗,『互联网』大厂、金融数据、电信、交通运输等行业。
图片来源:中国智算中心(AIDC)产业发展白皮书
1、上游:土建+IT基础框架
上游主要包括土建基础设施和IT基础架构的建设。土建基础设施涵盖土建施工、制冷系统、供配电系统和电信运营等; IT基础架构包括『芯片』设计制造、AI『服务器』、网络设备、存储设备。
据中研网数据,『数据中心』建设中,主要的成本包括 IT 设备成本和非 IT 设备成本。其中 IT 设备主要包括『服务器』、网络设备、安全设备、存储设备等;非 IT 设备主要包括柴油发电机组、电力用户站、UPS、配电柜等。
(1)土建:配电系统--心脏,占比30%
① 定义:
智算中心供配电系统是指从电源线进线,经10kV中压配电设备、变压器、0.4kV低压配电设备、不间断电源UPS、后备电池、UPS配电设备到IT负载为止的整个电路系统。
② 特定和构成
供电系统由配变电系统、不间断电源系统(即交流UPS电源或HVDC(高压直流电源)、备用电源系统(铅蓄电池/锂电池)、列头柜构成。
供电系统是『数据中心』的关键性基础设施,相当于『数据中心』的"心脏"。在『数据中心』基础设施投资占比超30%。大型智算基础设施耗电量比较大,以 10 万 GPU 集群为例,功率超过 150MW,一年的耗电量近 16 亿度。
③ 发展趋势
智算中心配电系统未来向集成化、直流化、高压化演进:传统主流架构为2N,DR/RR简化架构有望推广;目前交流UPS市场占比80%,高压直流HVDC占比20%左右;采用 DC 750V直流系统的电缆用量相较AC 380V UPS系统减少 50%;未来,智算中心时代向智算中心时代从10kV向110kV/220kV演进。
(2)土建:液冷(制冷系统)--占比约10%
① 定义
『数据中心』传统的冷却为风冷直接或间接冷却,但智算中心机柜复杂,单台『服务器』功率密度持续提升,传统风冷制冷效果差,不能精准调节,导致能源浪费。相比风冷,液冷具有高效能、高可靠、超静音、节省空间等优势。
另外,美国维谛技术公司认为,部署>30kW 的高功率密度的机架时,都必须要采用液冷方案,
②分类
液冷技术可以分为直接接触式和间接接触式两种:直接接触式包括单相浸没式液冷、两相浸没式液冷、喷淋式液冷;间接接触式包括单相冷板式液冷、两相冷板式液冷。
1)冷板液冷
多条液冷技术路线快速发展,针对不同应用场景各具优势,其中单相冷板式液冷在液冷『数据中心』的应用占比达 90%以上,是目前主流的液冷技术方案。
冷板液冷其优点是:我国起步较早,在可靠性、可维护性、技术成熟度等方面具备优势,且对『服务器』与动力系统改造较小,『IT设备』维护较为简单。
2)单相浸没式
浸没式液冷方案是直接冷却,具有散热能力强,噪音小的优点,但定制化程度较高(例如『IT设备』需要定制),且其他部件(例如光模块)的兼容性仍在验证。
单相浸没式液冷节能优势更突出,且近年来该技术逐步趋于成熟,相关产业链快速发展完善,小规模商用不断推进。此外,喷淋式、两相冷板式、两相浸没式这 3 种液冷方案的技术研究和产业生态尚需完善。
下表:冷板式、单 /双相浸没、喷淋对比:
液冷方案
冷板式
单相变浸没式
双相变浸没式
喷淋式
投资成本
初始投资中等,运维成本低
初始投资及运
维成本高
相变就是液体到气体的转换;初始投资及运维成本高
结构改造及液体消耗成本大,液冷系统初始投资成本低
PUE
1.1-1.2
PUE收益中等
<1.09
PUE收益高
<1.05
PUE收益高
<1.1
PUE收益中
可维护性
较简单
复杂
复杂
案例
华为、浪潮、曙光、联想、超聚变等主流
阿里巴巴、H3C、绿色云图、云酷职能、曙光数创
曙光、诺亚等
广东合一
应用范围
目前应用最为广泛
超算领域较多
不适合超算中心,现阶段落地应用相对较少
优点
1)可兼容现有硬件架构,改造成本低;2)可靠性:液体与设备不直接接触,可靠性更高;3)噪声:风机转速大幅降低
1)直接接触式的热交换,传热系数高,冷却效果与节能性更好;2)紧凑:支持高密机柜;同时,机柜间无需隔开距离,机房不需要架空地板、无需安装冷热通道封闭设施等;3)可靠性:设备完全浸没在液体中,排除了温度灰尘等带来的可靠性问题;4)噪声:100% 液体冷却,无需配置风扇
安装便捷,空间利用率高,设备静
音,节省冷却液
缺点
泄漏问题
需风冷补偿;
是过渡方案
材料兼容性承重要求高
系统密封性成本高,是风冷的3-4倍;氟化液会有环境问题
材料兼容性
技术小众
详细液冷的解析,欢迎翻看之前的报告:AI算力核心保障:液冷--行业解析(附细分标的),是3w+的阅读量。
(3)IT基础框架--『芯片』
① AI计算『芯片』
AI计算『芯片』可划分为图形处理器(GPU)、现场可编程门阵列(FPGA)和专用集成电路(ASIC)三大类别。
GPU占主导地位, 市场份额约90%,作为通用型并行计算核心,凭借高度并行架构,在图形渲染、大模型训练和推理等高性能计算场景中表现出色。
FPGA 是硬件可编程『半导体』器件,具有高度并行、高吞吐量、低功耗和可重构等特点,成为在实现深度学习算法的系统中提高性能功耗比的重要器件。通过可重构逻辑单元阵列实现算法与硬件的动态适配,其低延迟特性在实时推理、通信信号处理等场景具备独特优势。
ASIC 是针对特定用途定制的专业『芯片』,与通用集成电路如 CPU、FPGA 等相比,更能按照应用需求设计并实现特定功能。其针对特定算法进行全定制设计,在能效比指标上显著优于通用『芯片』。如NPU(神经网络处理器)、谷歌的TPU等
维度
GPU
FPGA
ASIC(NPU等)
架构类型
并行计算
可编程逻辑
模拟神经元
优势
并行能力强,
AI处理出色表现
灵活定制、高性能
高能效、低功耗、更快的处理速度、体积小
劣势
功耗高、体积大
编程复杂
功能固定、定制成本高
是否支持大模型训练
是
否
否
适用场景
模型训练
低功耗设备
边缘计算、推理、自动驾驶、物联网端侧
② 存储『芯片』
存储『芯片』是支撑数据存算协同的核心硬件。按断电后数据是否丢失分类:易失性存储『芯片』和非易失性存储『芯片』
1)易失性存储『芯片』:断电后数据会丢失,常用于临时存储数据,如运行中的程序和处理器缓存。
- DRAM(动态随机存取存储器):需定期刷新以维持数据,是计算机和『服务器』主存的主流选择,如DDR、DDR2、DDR3、DDR4、DDR5等。
- SRAM(静态随机存取存储器):无需刷新,速度快但成本高,常用于CPU高速缓存。
2)非易失性存储『芯片』:断电后数据仍保留,适用于长期存储程序代码和用户数据。
- ROM(只读存储器):数据在生产时固化,无法修改,如PROM(可编程一次性ROM)、EPROM(『紫外线』可擦除可编程ROM)、EEPROM(电可擦除可编程ROM)。
- Flash Memory(闪存):可擦写且数据不易丢失,分为NAND Flash和NOR Flash。NAND Flash容量大,用于固态硬盘、U盘等;NOR Flash读取速度快,用于嵌入式系统。
- 从市场格局看,根据中商产业研究院数据,DRAM与 NAND 闪存构成存储『芯片』的“双支柱”,两者合计占据全球存储市场绝大多数份额。
(4)IT基础框架--网络基础设施
网络基础设施包括高速以太网、光纤网络、交换机、路由器等,支持数据传输和通信。这些设备提供了高带宽和低延迟的网络连接,以满足大规模数据传输和分布式计算的需求。
当前大规模智算集群组网主要采用两类技术路线:
- InfiniBand 网络:凭借高带宽(主流 200G/400Gbps 已规模商用)、微秒级时延及无丢包特性,InfiniBand 成为大模型训练场景的首选方案,可最大程度避免 GPU 因数据等待导致的算力空转。但该技术受『英伟达』生态垄断,存在成本高、开放性不足等局限 ;
- RoCEv2 网络:基于以太网的无损网络技术,在成本与兼容性方面更具优势,正加速向智算领域渗透,逐步探索对 InfiniBand 的替代可能。
在所有网络设备中,交换机、路由器、光模块、 高速铜缆连接器是关键,值得深挖,我们拆解一下:
① 交换机
交换机是智算中心网络架构中的核心设备,主要用于实现『服务器』、存储设备、网络设备等之间的高速数据交换和互联。为大规模AI训练和推理提供支撑。
其核心功能:1)数据转发:基于MAC地址或IP地址,将数据包从一个端口转发到另一个端口,确保数据在『服务器』之间快速传输。2)低延迟传输:支持InfiniBand或RoCE等高性能通信协议,实现微秒级延迟,满足AI训练和推理对实时数据传输的需求。3)高带宽支持:提供200G-800G甚至更高的端口速率,满足大规模数据传输需求。
随着技术发展,国产化、高速化、白盒化将成为未来趋势:
高速化:800G端口占比逐步提升,满足AI对高带宽的需求。
国产化:国内厂商加大研发投入,推出自主可控的交换机产品,降低对进口『芯片』的依赖。
白盒化:白盒交换机通过软硬件解耦,降低采购和运维成本,受到大型『互联网』企业的青睐。
IDC 数据显示,2023 年思科、华为、Arista、新华三、HPE 等头部厂商合计占据全球超过8 成的份额。
② 光模块
光模块是实现电信号与光信号转换的核心组件,在智算中心中充当“『神经系统』与血管”的角色,负责将『服务器』、交换机等设备之间的电信号转换为光信号,通过光纤进行高速传输,再在接收端将光信号还原为电信号,从而实现设备间的高效互联。这一过程是智算中心海量数据实时传输和处理的基础,直接影响AI训练和推理的效率。
下图:光模块的结构图:
1) 分类与特性
按传输速率:
800G光模块:主流选择,支持单模(如OSFP封装,传输距离500m)和多模光纤(如QSFP-DD封装,传输距离50m),常用于『服务器』与叶交换机、叶-脊交换机之间的高速连接。
400G光模块:兼顾性能与成本,支持单模(如OSFP封装)和多模(如QSFP-DD封装),可通过分路电缆拆分为2个200G端口,灵活适配不同设备。
200G光模块:通常通过400G模块拆分实现,适用于算力需求中等的节点连接。
按光纤类型:
单模光纤模块:适用于长距离传输(如叶-脊、脊-核心连接),传输距离可达500m甚至2km,采用黄色拉环标识。
多模光纤模块:用于短距离高密度场景(如同一机柜内的『服务器』到叶交换机连接),传输距离一般在50m以内,成本较低,采用棕褐色拉环标识。
2)技术演进方向
光模块正朝着更高速率、更低功耗、更小体积的方向演进
LPO(低功耗互联):通过去DSP架构降低功耗,体积更小,但对系统链路完整性要求更高。
CPO(共封装光学):将光引擎与交换『芯片』封装在一起,几乎无串扰,预计2026年起应用于1.6T模块,适配超大模型算力中心。
硅光技术:集成度高、带宽高且成本低,但目前仍面临集成问题。
3)选型与部署原则
小型集群(千卡)可用400G为主,大型集群(万卡及以上)需800G光模块提升带宽。同一可扩展单元内用多模,跨区域用单模。短距离用点对点布线,长距离用结构化布线,降低管理难度。
(3)高速铜缆连接器
高速铜缆连接器是用于『数据中心』内部短距离高速数据传输的关键组件,由高速铜缆和两端的高速连接器构成。智算中心高效运行的“神经中枢”。
① 核心作用
- 高速铜缆连接器通过铜质导体直接传输电信号,实现『服务器』、交换机等设备间的高速互联。相比光模块,它在短距离(通常≤10米)传输中具有成本低、功耗低、部署灵活等优势,是智算中心内部短距传输的首选方案。
- ② 分类
- DAC(无源直连铜缆):成本最低,适用于极短距离(<3米)传输。
ACC(有源铜缆):通过『芯片』补偿信号损耗,支持3-7米传输。AEC(有源电气电缆):集成更先进『芯片』,支持>7米长距离传输,性能更强。
- ③ 应用场景
- 『服务器』内部单板与背板间的高速差分信号传输。GPU/ASIC『芯片』与背板或前端接口的互联,减少信号损耗。机柜间或『服务器』与外部网络设备的互联。
- 2025年全球市场规模预计达数百亿元,『英伟达』GB200等超大规模AI『服务器』的推广进一步推动其应用。国内企业如沃尔核材、兆龙互连等已实现技术突破,逐步替代国际巨头。
2、中游:服务提供商
智算中心运营层:主要由云厂商、IDC服务商和专业智算服务供应商组成,包括算力池化、算力调度、弹性共享、云边端协同等调度管理以及智算服务、IDC服务、云服务、数据服务、算法服务等服务提供两部分。
(1)智算服务提供商 :专业的智算服务供应商,他们凭借自身的技术和资源优势,构建智算中心,并对外提供算力租赁、AI 平台服务、模型定制及 AI 应用服务等。如阿里云、腾讯云等云服务商,利用其云计算技术和基础设施,为用户提供有价值的智算服务,推动人工智能技术在各行业的应用。
(2)IDC 服务商 :拥有『数据中心』基础设施和运营经验,可将部分空间和资源改造为智算中心,或与智算服务提供商合作,为其提供场地、机柜、带宽等资源租赁服务,共同开展智算业务。
(3)专业智算服务供应商 :专注于智算领域的技术研发和服务提供,如在特定的人工智能算法、模型训练优化等方面具有专业优势,可为下游客户提供定制化的智算解决方案和专业技术支持。
3、下游应用:
下游应用包括交通智驾、『互联网』、金融/电信行业、智慧医疗、智能制造、元宇宙等众多领域。
(1)『互联网』 :『互联网』企业是智算中心的主要用户之一,利用智算中心的算力资源进行大数据分析、内容推荐、搜索引擎优化、自然语言处理等人工智能应用,提升其产品的智能化水平和用户体验,如字节跳动、百度等在内容推荐和搜索等方面广泛应用智算技术。
(2)金融/电信行业:金融机构通过智算中心进行风险评估、信用评分、智能客服、量化交易等应用,提高金融服务的效率和质量,降低风险,提升客户满意度和竞争力,例如中国工商银行、平安银行等在风控和客服等领域积极探索人工智能技术的应用。电信运营商借助智算中心实现网络优化、智能运维、客户服务质量提升等。
(3)交通智驾:随着自动驾驶技术的发展,汽车企业对智算中心的需求不断增加,利用智算中心进行自动驾驶算法的研发、训练和测试,提高自动驾驶的安全性和可靠性,推动智能汽车产业的发展,如特斯拉、百度Apollo自动驾驶平台。
(4)医疗行业 :智算中心为医疗影像分析、疾病诊断、药物研发、医疗大数据分析等提供强大的算力支持,帮助医疗机构提高诊断准确性和效率,加速药物研发进程,提升医疗服务质量和水平,比如科大讯飞的智慧医疗解决方案在医疗行业有广泛应用,华为-瑞金病理大模型,致力于提高病理图像的自动分析能力,大幅提高诊断速度和准确性。
(5)智能制造 :制造业企业利用智算中心进行产品设计研发、生产过程优化、质量检测、供应链管理等,实现智能制造和产业升级,提高生产效率和产品质量,降低生产成本,如三一重工等在智能制造方面对智算有一定应用。
五、细分标的
以下为不完全列举:
1、配电:
(1)UPS&HVDC:科华数据、科士达、禾望电气、中恒电气
(2)机柜内电源:欧陆通、麦格米特
(3)备用电源BBU:亿纬锂能、威腾电气、蔚蓝锂芯
(4)柴油发电机:潍柴重机、科泰电源
(5)变压器:金盘科技、伊戈尔。
2、液冷:
(1)冷却液:巨化股份、新宙邦、东阳光、八亿时空、润禾材料、永和股份、三美股份等
(2)液冷板:英维克、银轮股份、同飞股份、华峰铝业、飞荣达、中航光电;
(3)CDU:英维克、申菱环境、高澜股份、曙光数创、网宿科技(旗下绿色云图)、同飞股份、佳力图、依米康
(4)冷板式液冷:华为、浪潮、曙光、新华三、英维克
- 相变浸没式:曙光、诺亚等
- 单相浸没式:阿里、绿色云图、云酷等
- 喷淋式液冷:广东合一、中国长城等。
3、网络设施
(1)光通信 & CPO: 源杰科技、新易盛、中际旭创、光迅科技、天孚通信、太辰光、德科立、博创科技
(2)AEC&铜连接: 华丰科技、瑞可达、宝胜股份、鼎通科技、沃尔核材、金田股份
(3)交换机及『芯片』: 锐捷网络、紫光股份、盛科通信、中兴通讯等。
4、计算『芯片』:
(1)GPU: 寒武纪、海光信息、龙芯中科、景嘉微
(2)FPGA: 复旦微电、紫光国微、安路科技
(3)ASIC: 寒武纪、云天励飞、芯原股份、瑞芯微、全志科技、翱捷科技。
5、存储『芯片』:
(1)DRAM: 兆易创新、江波龙、澜起科技、佰维存储、长鑫存储(未上市)
(2)NAND: 兆易创新、国科微、东芯股份、佰维存储。
6、AI『服务器』
浪潮信息、海光信息、中科曙光等。
7、『数据中心』运营
世纪互联、润泽科技、数据港、奥飞数据、万国数据、利通电子等。
8、标的图谱如下:
浙江腾视算擎科技有限公司(简称:腾视科技)成立于2025年,总部位于浙江杭州,在杭州、深圳等城市设有研发中心。公司依托核心技术提供『机器人』️控制全栈AI边缘智算大脑、AI+行业赋能边缘算力模组、边缘计算终端的专精特新及国家高新技术企业。
公司核心团队来自华为、中兴,基于『英伟达』、高通、华为等市场主流AI算力『芯片』,配置1-500TOPS算力范围的丰富产品线,专注于构建“感知、决策、控制”一体化边缘智算平台。通过自主研发的AI加速引擎与分布式调度系统,为工业『机器人』️、特种车辆、智慧能源等20+行业提供低时延、高可靠的智能决策中枢,产品覆盖中国、中东、印度、南美、东南亚等全球多个地区。
秉承“诚信、进取、协同、简单”的经营理念,腾视科技致力成为“全球领先的AI算力模组及智能体AGI解决方案提供商”,通过国产化、『数字化』、智能化创新技术,软硬件一体化解决方案能力及全生命周期服务体系,激活行业新动能、发展新质生产力,助力广大客户『数字化』转型和智能化升级。