在互联网上,奥运冠军的“声音”突然开始推销农产品,知名演员🎭️的“声音”24小时不间断在直播间与粉丝互动……这些以假乱真的AI克隆声音正成为部分自媒体博主的“流量密码”。据悉,依托成熟的语音大模型技术,仅需十几秒就能“克隆”任何人的声音,当声音能被轻易窃取和滥用,随之而来的侵权乱象频繁上演。
网传AI仿冒全红婵带货画面:大家好,我是你们的婵宝,今天有事请大家帮忙。婵妹就想着帮助妈妈,让家里的生活过得更好一点🕐️,同时把老家的土鸡蛋分享给粉丝们尝尝……
记者在抖音平台发现,在这个网名为“我是小助理吖”的博主账号中,已发布的17件作品,内容全部是利用AI仿冒奥运冠军全红婵声音带货土鸡蛋的视频,其中一个视频点赞量高达1.1万。评论区显示,大量粉丝误以为这就是全红婵本人,纷纷下单购买链接中的鸡蛋,该商品链接显示已售出4.7万件。今年4月,全红婵家人曾向媒体证实,全红婵并未给相关农产品代言或授权。
除全红婵外,奥运冠军孙颖莎和王楚钦也遭遇了同样的仿冒。在这个网名为“小兔真可爱”的账号中,两位奥运冠军的AI克隆声音同样在为土鸡蛋带货。
这种利用AI技术盗用名人声音的行为,不仅侵犯了运动员的人格权,更涉嫌欺诈消费者,扰乱市场秩序。面对这种愈演愈烈的歪门邪道,必须从法律、技术、平台监管等多个层面重拳整治,绝不能让其成为灰色产业链的“财富密码”。
此次事件并非孤例,而是AI技术滥用乱象的冰山一角。网络安全专家潘季明指出,依托开源的语音大模型,仅需十几秒就能克隆任何人的声音,并操控其说出指定内容,这种技术一旦被不法分子利用,危害极大。
一是我国《民法典》明确规定,对自然人声音的保护参照肖像权,未经许可克隆他人声音构成侵权。全红婵等人的声音被冒用,直接损害了他们的声音权。
二是大量粉丝误以为视频中的“全红婵”是本人,出于信任下单购买,本质上是一种虚假宣传和欺诈行为。
三是除带货外,AI克隆声音还被用于24小时语音直播,演员🎭️靳东是被仿冒最多的对象,背后隐藏着诱骗打赏、快速“养号”再转售牟利的黑色链条。
更令人担忧的是,如果AI克隆声音与“AI换脸”结合,生成高度逼真的“数字人”实施诈骗,危害将呈几何级放大。若不及时遏制,未来可能催生更多新型犯罪。
尽管我国法律已对声音权作出明确规定,但现实中维权仍面临诸多困难:京航空航天大学法学院副教授赵精武指出,若AI合成声音能让公众关联到特定自然人,即具法律可识别性,可构成侵权。然而,受害者往往需要自行举证,过程繁琐。
部分侵权账号长期存在,平台是否应承担连带责任?法律专家认为,若平台“知道或应当知道”侵权行为却未采取措施,则需担责。但目前许多平台审核机制滞后,导致侵权内容长期流通。
职业配音演员🎭️武扬发现自己的声音被AI克隆用于商业宣传,侵权方仅愿赔偿5000元,远低于正常授权费用。这种低成本侵权,变相纵容了不法行为。
AI语音克隆技术本可用于残障人士恢复发声能力、影视配音等正途,却被不法分子扭曲为敛财工具。全红婵等运动员的声音被滥用,不仅伤害了他们的权益,也破坏了网络生态的诚信基础。
治理AI“盗声”乱象,不能仅靠受害者维权,更需要法律、平台、技术、公众四方合力。唯有严厉打击这种歪门邪道,才能让技术真正服务于人,而非成为欺诈的帮凶。