在科技飞速发展的今天,AI技术被广泛应用于各个领域,然而,不法分子也盯上了这一技术,利用“AI换脸拟声”实施电信诈骗,给人们的财产和信息安全带来了严重威胁。为了您的财产安全,请仔细阅读以下防范指南。
️一、什么是“AI换脸拟声”诈骗?
“AI换脸拟声”诈骗是一种新型电信诈骗手段,犯罪分子通过AI技术,模拟受害人的面容、声音甚至行为模式,以此冒充受害人或其亲友,进行诈骗活动。这种诈骗手段极具迷惑性,难以辨别真伪。
️二、常见诈骗场景
️冒充亲友求助:犯罪分子利用AI技术模拟受害人的亲友,通过视频通话或语音消息,以紧急情况为由,要求受害人转账或提供个人信息。
️冒充公检法机关:通过AI换脸技术,冒充公安、检察院、法院等工作人员,以涉嫌违法、账户异常等理由,要求受害人配合调查并转账。
️网络社交诈骗:在社交媒体上,利用AI技术模拟受害人的面容和声音,与受害人的好友进行互动,骗取信任后实施诈骗。
️三、AI诈骗典型案例
宁夏固原居民马某某在刷网络平台视频时,“表哥”发来消息添加好友。添加成功后,“表哥”发来视频电话称自己在非洲务工,网络不稳定,不方便转账,但急需和公司签订一份合同,希望马某某能帮他给公司垫付合同资金,等网络稳定后再还钱。马某某基于对亲戚的信任,加上视频聊天“核实”了身份,先后分三次把1.5万元转到对方指定的银行账户上。
事后,马某某给亲戚发微信核实时才得知被骗,原来视频连线的“表哥”是“冒牌货”,骗子通过AI换脸和拟声技术佯装亲戚对其实施诈骗。
️四、防范措施
️保持警惕:对于任何来自陌生人的视频通话或语音消息,都要保持高度警惕,不要轻信。
️多渠道验证:在转账或提供个人信息前,务必通过多个渠道验证对方的身份和信息,如电话回拨、视频通话中的细节观察等。
️保护个人信息:不要随意在社交媒体上分享自己的面部照片、声音样本等敏感信息,以防被不法分子利用。
️安装反诈APP:在手机上安装国家反诈APP,及时接听96110反诈电话。
️提高法律意识:了解相关法律法规,增强自己的法律意识和防范能力,遇到诈骗行为及时报警。
![]()
本站所有文章、数据、图片均来自互联网,一切版权均归源网站或源作者所有。文内含有的对外跳转链接(包括不限于超链接、二维码、口令等形式),用于传递更多信息,结果仅供参考,今日霍州所有文章均包含本声明。