今天分享的是:全国网络安全标准化技术委员会:2025人工智能安全治理框架2.0版
报告共计:90页
《人工智能安全治理框架2.0》核心内容总结
《人工智能安全治理框架2.0》由全国网络安全标准化技术委员会与国家计算机网络应急技术处理协调中心联合制定,于2025年9月发布。该框架以落实《全球人工智能治理倡议》、遵循“以人为本、智能向善”为导向,旨在应对人工智能技术快速发展带来的新风险,推动各方达成治理共识,保障人工智能安全、可靠、公平应用。
框架首先明确了人工智能安全治理五大原则,包括包容审慎且严守安全底线,为新技术提供容错空间的同时及时应对危害风险;从技术自身、应用及衍生影响多维度识别风险,并探索按场景、智能化水平等分级应对;结合开源业态挑战,明确模型研发者、服务提供者等主体责任,整合技术与管理措施;推动国际交流合作,共享最佳实践以构建全球治理体系;确立多层面可信准则,确保AI始终处于人类控制下,防范失控风险。
在风险分类上,框架将AI安全风险划分为三类。技术内生安全风险涵盖模型算法(可解释性不足、偏见歧视等)与数据安全(违规收集、内容不当等)问题;技术应用安全风险涉及网络系统(组件算力、供应链安全等)、信息内容(输出违法信息等)、现实安全(冲击关键基础设施等)及认知安全(加剧“信息茧房”等)风险;应用衍生安全风险则包括社会环境(冲击就业结构等)与伦理安全(扩大智能鸿沟等)风险,甚至提及技术失控的潜在威胁。
应对措施方面,框架从技术与综合治理两方面提出方案。技术上,针对不同风险类型,分别从模型算法优化、数据安全管控、网络系统防护、内容标识追溯等维度制定措施,如提升模型可解释性、规范数据收集使用、建立应急“熔断”机制等。综合治理则涵盖健全法律法规、构建伦理准则、实施应用分类分级管理、推广AIGC可追溯、建设安全测评体系、加强人才培养与国际合作等14项举措,形成多主体协同、全生命周期覆盖的治理体系。
此外,框架还提供了AI研发与应用的安全指引,分别针对模型算法研发、应用建设部署、运行管理及访问使用环节,明确安全开发、供应链管控、日志留存、用户权益保护等具体要求,并通过附件明确风险分级原则、可信AI基本准则及关键术语,为实践提供清晰指导,助力平衡AI创新发展与安全风险防范,推动全球AI治理协同推进。
以下为报告节选内容