8月7日,2025开放计算技术大会在北京举行。大会聚焦在MoE大模型与AI智能体的技术发展趋势下,如何以开放计算更好的促进纵向扩展性能(Scale up)与横向扩展效率(Scale out)的协同发展。当前,模型算法开源、算力系统开放,已经成为AI时代一个主流趋势,开源开放的全球化协作平台正发挥越来越重要的作用,既能以系统化思维,通过提升单系统性能,满足万亿参数大模型发展的需求;又能应对日益扩张的数据中心规模,通过全球产业链协作解决未来GW级AI数据中心面临的系统性工程挑战。
2025开放计算技术大会由开放计算社区OCP及开放标准组织OCTC(中国电子工业标准化技术协会开放计算标准工作委员会)联合主办,以“开放变革:筑基、扩展、进化”为主题,聚焦计算、存储、网络、液冷等基础设施底层架构的技术创新,算法与算力系统、硬件和软件的协同创新,以及开放计算技术赋能人工智能热门应用等议题,来自中国移动、字节跳动、阿里云、三星、浪潮信息、清华大学、立讯技术等超千位知名学者、技术专家、应用开发者及厂商代表参与大会。
开源开放加速全球化协作,推动AI普惠
开源大模型(如Llama3、DeepSeek、Qwen、GLM、MiniMax)的意义已超越技术本身,深刻重塑全球AI产业格局和发展路径。它们大幅降低了获取、部署和定制先进AI能力的门槛,使各类企业与个人开发者都能便捷利用顶尖技术,推动研发范式从封闭走向开放协作,显著降低技术壁垒,加速实现“智能平权”。与之伴生的是,公共云平台和模块化AI基础设施的普及,为开源模型的规模化落地和应用创新提供了至关重要的开放算力基础。这种开源模型与开放算力的结合,会有效驱动海量长尾应用爆发,进一步加速AI普惠的实现。
聚焦当下:创新超节点架构凸显产业链融合创新之力
毋庸置疑,开放计算的兴起与日益壮大,使得数据中心产业链的协同效应更紧密、融合创新能力更强,这一点对于飞速迭代的AI产业至关重要。
目前,MoE大模型的参数量仍在保持高速增长且迭代迅速,对单系统的算力密度与互联速率提出极致要求,带动了计算架构的变革。此次大会重点探讨并集中展示了创新的超节点计算架构,在高速互联、通信协议、内存控制、系统架构设计等层面实现全维度创新,能够满足万亿级别参数MoE大模型应用需求,凸显出开放计算的产业链融合创新之力。
随着AI计算需求的持续爆发式增长,单机柜功率将从当前的100+kW跃升至未来的1MW以上,AI数据中心的电力需求也将步入GW级。AI数据中心正在从“机柜级密度革命”迈向“数据中心级系统工程挑战”,更需要全球产业链开放协同,优势互补,共同应对挑战。
GW级AI数据中心的建设,首要考虑电力供给的问题,能源基础好、电力成本低是重要的发展前提。在这一点上,中国具备显著的能源基础设施优势特别是新能源。数据显示,2025年一季度新增装机90%来自于可再生能源,全国可再生能源发电量达8160亿千瓦时,约占全部发电量的35.9%。但能源优势并不意味着全部,GW级AI数据中心在中国的落地仍面临诸多挑战,如开发更稳定高效的全光互联方案、更好的能效管理技术、更优的基建模式等等,不仅需要产业链各个环节的协同创新,更需要社区间的跨社区协作,推动技术共享、产品开发、标准制定等方面的工作。
事实上,GW级AI数据中心对算力生态带来的重要变革,已经推动了跨社区合作的进程加快。目前,OCP正在筹备成立“GW级开放智算中心OCP中国社区小组”,结合中国在能源、算力基础设施与供应链方面的需求与优势,推动AI开放系统战略计划在中国的落地。同时,OCP也在同OCTC积极合作,探讨将OCP领先的AI基础设施技术架构、参考方案、前沿研究成果等在中国市场落地,在中国建立GW级AI数据中心的全球性标杆。
未来,开放计算技术大会将致力于打造全球开源开放联合体,为数据中心产业链上下游搭建起全球链接协作平台,推动不同国家和地区的开发者参与开放计算项目,加强产业链互联互通和开放协作,推动全球供应链创新融合发展,进而增强社区的多元化和包容性。