今天分享的是:安远AI:2025年新加坡人工智能安全全景报告(英文版)
报告共计:64页
《安远AI:2025年新加坡人工智能安全全景报告》全面剖析了新加坡在人工智能安全与治理领域的生态体系,涵盖国内治理、国际合作、产业发展、技术研究及公众态度等方面。
在国内治理方面,新加坡采取自愿框架与针对性立法相结合的方式,未推出全国性AI专项法律。2019年推出的《人工智能治理模型框架》是全球较早的综合性框架,2024年更新以覆盖生成式AI,为行业提供指导原则。同时,针对AI生成的选举深度伪造等特定风险制定了相关法律条款。其治理重点在于部署阶段的测试与保障,如“LLM应用安全测试入门工具包”和“全球AI保障沙盒”,填补了全球在应用层面测试的空白,还于2025年发布了首个国家AI标准SS ISO/IEC 42001。
国际合作上,新加坡积极参与全球AI治理,自2018年起参与联合国、全球AI安全峰会等多边论坛,利用中立外交立场举办国际活动,如新加坡人工智能大会,推动小国在全球AI规范制定中的话语权。通过双边贸易和数字协议嵌入AI治理条款,促进国际框架互操作性,如AI Verify测试框架与国际标准的映射。
产业领域,新加坡本土模型如SEA-LION和MERaLION侧重东南亚语言,安全功能尚在发展初期,2025年推出的SEA-Guard提示过滤器是初步尝试。同时,新加坡是AI保障枢纽,聚集了国内外企业,提供多层面的测试和保障服务,众多国际科技公司在此设立机构或参与相关项目。
技术研究方面,新加坡的大学是AI安全研究的主要力量,研究集中在鲁棒性、多模态安全等领域。2025年《新加坡全球AI安全研究优先事项共识》确定了风险评估等重点方向,政府机构和新加坡AI安全研究所也参与其中。
公众态度方面,针对新加坡AI安全的专门全国性调查缺失,现有全球调查显示,新加坡民众主要关注虚假信息、数据隐私等近程风险,对系统性风险关注度较低,且未涉及AI恶意使用等长期风险的看法。
总体而言,新加坡凭借实用的治理框架、国际合作及技术研究,在AI安全领域形成独特模式,为小国参与全球AI安全治理提供了参考。
以下为报告节选内容