Kloning Voice威胁在线安全,Deepfake用于欺诈和绑架

雅加达 - 技术界的一种新现象,称为声音克隆,威胁到在线安全性,黑客使用人工智能(AI)来模拟一个人的声音。

斯蒂芬·弗里(Stephen Fry)、萨迪克·汗(Sadiq Khan)和乔·拜登(Joe Biden)在声克隆的受害者,一位未透露姓名的首席执行官DI MANA在收到假电话后,甚至被欺骗者转移了243,000美元。

声音克隆是一种AI技术,允许黑客拍摄一个人的录音,在声音上训练AI工具并重制它们。HackerOne的解决方案架构师Dane Sherrets解释说,这项技术最初用于创建音频簿并帮助因病原因失去声音的人,但现在好莱坞电影业和欺诈者越来越多地使用。

最初,这项技术的使用仅限于对人工智能有深入了解的专家,但随着时间的推移,这项技术变得更加易于访问和负担得起。事实上,经验非常有限的人也可以在不到五分钟的时间内用一些免费和开源工具克隆声音。

为了克隆我的声音,Sherrets只需要有人说话的五分钟片段。发送剪辑后,他将其上传到工具中,然后可以在某种声音上“涂抹”。结果,克隆的声音非常有说服力,即使没有任何额外的中断或感染。

然而,这项技术也有可能存在严重的危害。有些人已成为与绑架有关的虚假通话的受害者,其中他们的子女的声音被怀疑被绑架,要求以非常紧张的声音支付赎金。黑客还可以使用这项技术对公司和组织进行更有针对性的社交攻击,例如伪造CEO的声音以获取机密信息或访问系统。

为了保护自己免受声克隆威胁,重要的是要注意音频中的关键标记,例如不自然的延迟,不自然的短语或背景下的噪音。还建议您毫不犹豫地问一个只有本地人才能实际回答的问题,并与家人和朋友一起设置安全密码。

此外,了解我们的数字足迹和限制在线上传的个人信息也很重要,因为我们共享的任何信息都可能被用来训练人工智能,并在未来被用来针对我们。

有了充分的认识和预防措施,希望我们能够保护自己免受声克隆威胁,并保持在线安全。