科研人员展开攻防拉锯战DeepFake AI假音频推动行业防伪技术提升

干货分享8个月前发布 Youzhizhan
1,097 0


来自加拿大滑铁卢大学的两位研究人员AndreKassis和UrsHengartner开发了一种新型的语音DeepFake软件。 成功欺骗语音认证系统的概率高达99%。 该软件采用机器学习软件,只需要5分钟的人声录制就可以模拟出非常逼真的人声。

科研人员展开攻防拉锯战DeepFake AI假音频推动行业防伪技术提升

7月10日消息,DeepFake目前是一系列AI,可以生成特定人的照片,视频和音频。
作为模型的总称,模型产生的各种信息可以相对容易地绕过各个企事业单位的识别系统。 因此,也有许多围绕deepfakes的黑色产品。 目前如何更准确地识别它们?
DeepFake生成的内容已经成为一个问题。

IT之家据报道,来自加拿大滑铁卢大学的两位研究人员AndreKassis和UrsHengartner开发了一种新型的语音DeepFake软件。,成功欺骗语音认证系统的概率高达99%。 该软件使用机器学习软件,只需要5分钟的人声录制就可以模拟出非常逼真的人声。

在用户通过语音认证注册后,用户将被要求重复特定的短语或句子。

系统会根据用户的语音提取声纹(语音指纹)并存储在服务器上。

如果您将来尝试进行身份验证,则会提示您说出不同的短语,并将从中提取的特征与系统中存储的语音指纹进行比较,以确定是否应授予访问权限。

科研人员展开攻防拉锯战DeepFake AI假音频推动行业防伪技术提升

▲图片来源uwaterloo网站

对于这种新型的语音DeepFake软件,其他安全研究人员已经开始处理它。,亚马逊研究人员试图检查语音样本,以确定样本的真实性

科研人员展开攻防拉锯战DeepFake AI假音频推动行业防伪技术提升

▲图片来源Pindrop网站

而Kassis和Hengartner创造了一种绕过上述亚马逊机制的方法,该方法可以识别合成语音中的标记,并自动去除这些具有AI特征的段落,使系统无法区分。

另一方面,专门开发语音认证安全机制的Pindrop认为这种机制并不安全,即”虽然攻击者可以去除生成的语音片段中具有AI特征的段落,但防御者可以同时多角度判断音频段落的真实性,如检测IP地址、请求特定语音信息等。”,所以使用DeepFake的攻击者仍然可以被检测到。

科研人员展开攻防拉锯战DeepFake AI假音频推动行业防伪技术提升

▲图片来源Pindrop网站

但研究员Pindrop也指出,用于打击Deekfake语音的现有系统存在许多缺陷,构建安全系统的唯一方法是像黑客一样思考。他还建议,仅依靠语音进行身份认证的公司应该部署额外的认证措施,以防止公司被骗并造成经济损失。

[ad]
© 版权声明

相关文章

暂无评论

您必须登录才能参与评论!
立即登录
暂无评论...