今天分享的是:未来生命研究所:2025年夏季全球AI安全指数报告(英文版)
报告共计:101页
未来生命研究所2025年夏季全球AI安全指数报告总结
未来生命研究所(FLI)于2025年7月17日发布《2025年夏季全球AI安全指数报告》,对Anthropic、OpenAI、Google DeepMind等7家顶尖AI企业在AI安全方面的表现进行评估,涵盖风险评估、当前危害、安全框架等六大领域共33项指标,采用美国GPA评分体系(A+至F)。
评估结果显示,行业整体安全水平偏低,无企业总分超过C+。Anthropic以C+(2.64分)位居榜首,在风险评估领域表现突出,开展了唯一的人类生物风险试验,隐私保护和对齐研究领先;OpenAI以C(2.10分)紧随其后,是唯一公开举报政策的企业,在外部模型评估等方面更透明;Google DeepMind获C-(1.76分)。xAI和Meta均为D级,中国企业智谱AI和深度求索(DeepSeek)总分不及格。
关键发现方面,行业在风险应对与技术发展间存在失衡。企业称十年内有望实现通用人工智能(AGI),但在“存在性安全”领域得分均不超过D,且仅3家企业(Anthropic、OpenAI、Google DeepMind)针对生物或网络恐怖主义等大规模风险开展实质性测试。同时,能力发展快于风险管理,企业间差距扩大,自愿承诺难以保障安全。举报政策透明度是普遍短板,仅OpenAI公开相关政策。
报告为各企业提出改进建议:Anthropic需公开举报政策并明确风险评估方法;OpenAI要重建安全团队;Google DeepMind应加强第三方评估投入;xAI、Meta等需强化风险评估并发布安全框架;所有企业需制定AGI/超级人工智能控制计划。
评估存在局限性,依赖公开信息,难辨透明度与实际执行差异;评估体系带有西方中心倾向,可能影响中国企业评分;难以衡量安全文化等隐性因素。
总体而言,AI行业安全基础设施和规范滞后于技术野心与竞争压力。随着企业推进AGI研发,这种失衡风险加剧,需通过更完善的监管与行业协作改善。
以下为报告节选内容