安基网 首页 资讯 安全报 查看内容

AI网络攻击前沿技术:用于模仿人声的Deepfake Audio

2019-7-20 14:04| 投稿: xiaotiger |来自: 互联网


免责声明:本站系公益性非盈利IT技术普及网,本文由投稿者转载自互联网的公开文章,文末均已注明出处,其内容和图片版权归原网站或作者所有,文中所述不代表本站观点,若有无意侵权或转载不当之处请从网站右下角联系我们处理,谢谢合作!

摘要: 7月18日,报道称,可制作虚假音频技术DeepfakeAudio 现已被用于进行商务电子邮件(BEC)攻击。黑客进行商业电子邮件攻击通常从网络钓鱼开始,目的是进入公司网络和支付系统。Deepfake Audio技术是人工智能网络攻击中最先进的技术之一,它依靠机器学习算法来模仿目标的声音。Deepfake Audio技术已经成为 ...

7月18日,报道称,可制作虚假音频技术DeepfakeAudio 现已被用于进行商务电子邮件(BEC)攻击。

黑客进行商业电子邮件攻击通常从网络钓鱼开始,目的是进入公司网络和支付系统。Deepfake Audio技术是人工智能网络攻击中最先进的技术之一,它依靠机器学习算法来模仿目标的声音。Deepfake Audio技术已经成为了黑客进行网络攻击的一个强大的新工具。一旦黑客确定了有管理财务权限的员工,他们就会冒充CEO或CFO,向这些员工传递虚假转账消息进行诈骗。

注:Deepfake是“deep learning”和“fake”的混成词,专指用基于人工智能的人体图像合成技术。

360智库点评:7月9日,以色列就警告过此类攻击,时隔一周利用AI模仿人声进行攻击的警告再次出现。如果对国家关键基础设施使用此类攻击,后果将不堪设想。建议政府相关机构和网络安全行业高度重视此类新技术带来的网络安全威胁。

来源:CPO MAGAZINE

更多资讯,请关注360智库微信公众号



小编推荐:欲学习电脑技术、系统维护、网络管理、编程开发和安全攻防等高端IT技术,请 点击这里 注册账号,公开课频道价值万元IT培训教程免费学,让您少走弯路、事半功倍,好工作升职加薪!

本文出自:https://www.toutiao.com/a6715299091602997771/

免责声明:本站系公益性非盈利IT技术普及网,本文由投稿者转载自互联网的公开文章,文末均已注明出处,其内容和图片版权归原网站或作者所有,文中所述不代表本站观点,若有无意侵权或转载不当之处请从网站右下角联系我们处理,谢谢合作!


鲜花

握手

雷人

路过

鸡蛋

相关阅读

最新评论

 最新
返回顶部