加入收藏 | 设为首页 | 会员中心 | 我要投稿 聊城站长网 (https://www.0635zz.com/)- 智能语音交互、行业智能、AI应用、云计算、5G!
当前位置: 首页 > 站长资讯 > 外闻 > 正文

研究人员进行DeepFake AI 伪造音频攻防战,促进业界辨伪技术提升

发布时间:2023-07-11 12:43:04 所属栏目:外闻 来源:
导读:当下所称的 Deep Fake ,是指一系列可生成的图像、影像和音像等AI模版的集合,模型生成的各种信息相对可以轻松绕过各种企业机构的识别系统,因此也有许多黑产围绕 DeepFake 而展开,当下如何更精准辨识 DeepFake 生成
当下所称的 Deep Fake ,是指一系列可生成的图像、影像和音像等AI模版的集合,模型生成的各种信息相对可以轻松绕过各种企业机构的识别系统,因此也有许多黑产围绕 DeepFake 而展开,当下如何更精准辨识 DeepFake 生成的内容成为难题。

曾报道,加拿大滑铁卢大学的两名研究人员 AndreKassis 与 UrsHengartner 研发了新型语音 DeepFake 软件,成功欺骗语音认证系统概率高达99%,该软件使用机器学习软件,只需要 5 分钟的人声录音,就可以模拟出非常逼真的人声。

用户通过语音认证注册之后,会要求用户重复一个特定的短语或者句子。 系统会根据用户的声音提取声纹(语音指纹),并将其存储在服务器。 如果您将来尝试进行身份验证,系统将提示您说出不同的短语,并从中提取的特征将与系统中存储的语音指纹进行比较,以确定是否应授予访问权限。

对于这一新型语音 DeepFake 软件,其他安全研究人员纷纷开始应对,亚马逊的研究人员尝试检查语音样本,来判断样本的真实性。

而 Kassis 与 Hengartner 打造出一个方法来绕过上述亚马逊的机制,该方法可辨识出合成语音中的标记,并可能自动移除这些具有 智能AI 生态系统特征的段落,从而令人脸识别系统无法有效地区分。

另一方面,专门开发语音身份认证安全机制的 Pindrop 则认为这一机制并不稳妥,即“虽然攻击方可以移除生成的语音片段中具有 AI 特征的段落,但防守方可以同时从多角度来判断音频文段的真实性,例如检测 IP 地址、要求提供特定的语音信息等”,因此依然可以检测出使用 DeepFake 的攻击者。

但研究人员 Pindrop 同时指出,现有用来对抗 Deekfake 语音的系统有许多缺陷,打造安全系统的唯一方式是像黑客一样思考。他同时建议那些只仰赖语音进行身份认证的企业,应该部署额外的认证措施,以防止企业受到诈骗,导致经济损失。他认为,如果一个公司想要保护自己免受欺诈,就必须采取措施,包括加强安全策略,提高员工的技能水平,以及在网络上安装更多的安全。

 

(编辑:聊城站长网)

【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容!