监管先行,风暴未至前的雷霆已在云端酝酿。三月,国家网信办等四部门联合发布了“人工智能生成合成内容标识办法”,明确要求服务提供者对文本、音频、图片、视频、虚拟场景等生成合成内容,添加清晰显式的标识,从源头就把真假分辨开来;今年将于2025年9月1日正式实施。这一举措,意在让用户一眼就能分辨出“合成作品”,避免被误导。
紧接着,中央网信办在全国范围展开了“清朗·整治AI技术滥用”专项行动,强调加强AI技术的源头治理,清理整治违规AI应用程序,提升网站平台的检测与鉴伪能力,形成多方协同的治理合力。相关部门的举措,意味着对“仿冒、盗用、诈骗”链条的堵截将从源头到平台逐步落地。
监制丨李 磊
责编丨孙 超
编辑丨王忠超
来源丨人民网微信公众号
在这场治理行动的背景下,短视频平台却出现了一个令人触目惊心的现象:大量利用AI仿冒奥运冠军的声音,来带货土鸡蛋的视频层出不穷。其中一个视频的点赞数竟高达1.1万,评论区则充斥着大量粉丝误以为自己看到的就是全红婵本人,纷纷点击购买链接,结果显示该商品已售出约4.7万件。今年4月,全红婵的家人也向媒体确认,自己并未为相关农产品代言或授权。
不止她一人,奥运冠军孙颖莎和王楚钦也遭遇了同样的仿冒潮。看似离奇的操作,背后却隐藏着一个灰色产业链。网络安全专家潘季明指出,通过仿冒名人进行直播来吸引打赏、牟利,是产业链的前端环节;再把一个普通账号包装成“有影响力”的账号,迅速扩张粉丝,为后续骗取钱财打下基础。
记者调查还发现,配音演员🎭️被AI克隆侵权的案例同样屡见不鲜。AI克隆声音到底是如何实现“以假乱真”的?又是谁在为“盗取声音”火上加油?潘季明解释道:基于开源的语音大模型,只要有一段清晰的语音样本,任何人的声音都可能在极短时间内被克隆,并被操纵说出攻击者设定的任意内容。这不仅侵害了声音权等合法权益,若再与AI换脸等技术结合,极其逼真的“数字人”就可能用于诈骗,危害极为严重。
他还强调,技术层面的风险必须从源头上加以限制。在开源阶段,应对代码的使用时长、应用场景等作出具体约束,以避免被不法分子滥用。
从“一听就假”到“真假难辨”,AI克隆的滥用不仅侵犯了当事者的权益,也涉嫌违法违规。法律层面,民法典已将人格权独立成编,首次以法定形式将“声音权”纳入保护范围。第1023条明确对自然人声音的保护,参照适用肖像权的保护规定。
平台在这场治理中的责任尤为关键。面对网络上大量的AI克隆声音内容,平台应当承担相应的监管职责,建立健全对AI声音的审核与侵权举报机制,及时发现、拦截侵权、虚假和违法等不良内容。
今年3月,国家网信办等四部门联合发布的《人工智能生成合成内容标识办法》明确了平台应在文本、音频、图片、视频、虚拟场景等生成内容上添加显式标识的要求,并将于9月1日正式施行。与此同时,中央网信办也在全国范围部署开展“清朗·整治AI技术滥用”专项行动,推动源头治理、整治违规AI应用程序、提升检测和鉴伪能力。
正是在这样的制度环境与治理行动之下,我们看到了一个更清晰、更高效的保护体系正在建立。对于公众而言,培养辨别能力、提升对标识信息的关注度,是抵御虚假内容的重要前提。对于平台而言,建立完善的监管、举报与处理机制,是实现健康生态的关键所在。
最后,婵宝在此呼吁:在跨越式的信息时代,善用技术、理性消费,共同守护网络空间的真实与安全。愿每一次点击、每一次购买,都建立在清晰的判断之上。
大家好,我是你们的婵宝
今天有事请大家帮忙
婵妹就想着帮助妈妈
让家里的生活过得更好一点🕐️
同时把老家的土鸡蛋
分享给粉丝们尝尝……