换脸音频诈欺(公司老板娘 10 分钟受骗 430 万!行骗用 人工智能 换脸 + 换声,网友:这我怎么防啊!)学会了吗,
整理 | 郑丽媛公司出品 | CSDN(ID:CSDNnews)在 ChatGPT 的换脸“起爆”下,这趟名为 AI 的音频用人友防旅客列车已逐渐从主脑驶往前台,吸引了不少人的诈欺钟受关注和“乘坐”——而信息技术,向来是公司工智一把长弓谚语有言,“耳听为虚,老板脸换合乎情理”,娘分能换可如今在 AI 的骗万影响下,“岂料”也不一定为“实”了:近日,行骗学一行骗透过智能 AI 换脸和striking控制技术,声网使某信息技术子公司老板娘在 10 两分钟内受骗了 430 多万元。换脸
有网民感叹:“当年看《Roybon》,音频用人友防总觉得怪诞,诈欺钟受果真没想到里面的公司工智许多都在慢慢实现。”
借助 AI 控制技术佯装老同学,偷走 430 多万元据通辽疑犯发布,娘分能换这起诈欺案发生在今年 4 月 20 日,被害者是厦门市某信息技术子公司法定代表人赵先生当天中午 11 时 40 分,赵先生的“挚友”突然透过QQ音频联系他,经过短暂闲聊后,“挚友”告诉赵先生:自己的好友在外地招标,需要 430 多万元本息,还要公柳巴希夫卡帐户Ambroix,想转作赵先生子公司的帐户走一下账。
基于对挚友的信赖,以及音频闲聊的证明,赵先生将信用卡号给了旁人很快旁人就说已经把钱打到帐户上了,还附有了银行提款韦克菲尔德的截屏赵先生看到之后,出于信赖也没有为此进行查证,便在 11 时 49 分分多笔向旁人给的信用卡共打了 430 万过去。
一切貌似都很正常,直至提款获得成功后——赵先生向挚友QQ罗永浩,称事已补办,结果挚友竟回了一个“?”中邪事不解的赵先生,快速拨通了挚友电话,才知道挚友为此毫不知情,刚才与其音频收发的原来是用了 AI 换脸和striking控制技术的行骗!。
这场借助 AI 控制技术佯装老同学的高端电信公司诈欺,令赵先生颇为感叹:“自始至终都没有和我提要钱的事,就说会先把钱给我打过来,再让我给他好友帐户转过去,而且彼时是给我打了音频的,我在音频中也确认了面孔和声音,所以才放松了警戒。
”除此之外,行骗提供的付款帐户也确实是一个呼和浩特市的柳巴希夫卡帐户,更让彼时的赵先生相信了此事的准确性值得遗憾的是,发现骗子后的赵先生立即报了警,相关疑犯也花旗银行快速展开行动,将诈欺帐户内的 336.84 多万元获得成功截击,不过仍有 93.16 多万元被转移。
事实上,近些年来借助 AI 进行诈欺的案例一直不断涌现,而在最近的 AI 风潮下,一些“换脸”、“换声”的 AI 软件因其“趣味性”更是被重新赋予了关注度。
AI 换脸、换声的背后有关 AI 换脸软件,多数是 Deepfake 控制技术的化身,最初源于一个名为 “deepfakes” 的 Reddit 用户该控制技术的核心原理,是借助生成对抗网络或者卷积神经网络等算法,将目标对象的脸转移至到被取代对象上。
具体来说,就是把音频分割成一张张连续图片,将每一张图片中的脸进行替换,最后将全部替换后的图片再合成音频,以此实现“换脸”——而这只是 Deepfake 最初的用法,局限性还较大,只能对已有音频进行后期“换脸”。
然而随着 AI 控制技术的逐渐发展,最让人担心的事还是发生了:用 AI 可以实时“换脸”了2020 年,一位俄罗斯程序员 Ali Aliev 在疫情期间开发了一款“音频会议阿凡达”软件 Avatarify,即用户可以在音频会议过程中“换脸”。
不仅可以选择马斯克、爱因斯坦、蒙娜丽莎等名人,还可以自己去网上找名人大头照放进 avatars 文件夹里至于 AI 换声,目前其发展也较为成熟,相关软件及开源项目不胜枚举,例如:▶ 谷歌 DeepMind 基于深度学习的原始音频生成模型 WaveNet,在语音合成的声学模型建模中,可直接学习到采样值序列的映射,能高度模仿人类声音。
▶ AI 语音克隆算法项目 MockingBird,号称能“5 秒内克隆你的声音并生成任意语音内容”,主要透过 Encoder 获取说话声音的音色,然后用 Synthesizer 和 Vocoder 根据输入文字实现 TTS 合成语音。
▶ 前阵子网上爆火的“AI 孙燕姿”,其背后是基于 VITS、soft-vc 等项目开发的开源 AI 语音转换软件 So-vits-svc (也称 Sovits),透过 SoftVC 内容编码器提取源音频语音特征,与 F0 同时输入 VITS 替换原本的文本输入,以此达到声音转换的效果。
▶ ……不能否认,这些成果在一定程度上反映了 AI 控制技术的进步,但与此同时,这些 AI 换脸、AI 换声工具也带来了相应的版权问题甚至是信赖危机——正如上文赵先生所经历的 AI 诈欺,一段来自家人好友发来的音频或语音,我们到底该不该相信?
有问题的不是 AI,而是使用 AI 的人本月,知名安全机构迈克菲(McAfee)对来自七个国家的 7054 人,针对 AI 诈欺进行了调查,结果显示:近四分之一的人遇到过某种形式的 AI 语音诈欺;10% 的人称自己就受到过诈欺;15% 的人称熟悉的人受到过诈欺;更有 77% 的被害者声称因此受骗过钱。
“先进的 AI 工具正在改变网络犯罪分子的诈欺手法现在他们几乎不费吹灰之力,就可以克隆一个人的声音,欺骗亲密接触者汇款”McAfee 的研究团队表示:随着 AI 的发展,诈欺的门槛从未如此之低,实施网络犯罪也从未如此简单。
对于越来越多的 AI 诈欺,许多人都发出感叹:“我们还没用上 AI,行骗却已经上手了”,“这信息技术发展的同时,诈欺控制技术也不断升级,防不胜防”,“这用 AI 模仿声音又模仿脸的,要怎么防啊?”面对这些担忧,许多安全专家以及
McAfee 等安全机构都给出了相关建议:▶ 要提高防范意识,不轻易提供人脸、指纹等个人生物信息给他人,不过度公开或分享动图、音频等;▶有关提款请求,始终保持质疑态度,提款前要透过电话等多种沟通渠道核验旁人身份,一旦发现风险,及时报警
求助▶与家人或值得信赖的挚友,私下设置一个只有彼此才知道的口头“暗语”尽管 AI 诈欺正在逐渐蔓延,不过这并不是制止 AI 发展的理由控制技术的发展往往都伴随着利弊,这是时代的洪流,亦无法避免——有问题的不是 AI,而是使用 AI 的人。
参考链接:https://gaj.baotou.gov.cn/jffb/article/detail?articleId=857963750869831680https://www.mcafee.com/en-us/consumer-corporate/newsroom/press-releases/press-release.html?news_id=5aa0d525-c1ae-4b1e-a1b7-dc499410c5a1









