有人用AI伪造老板的声音要求转账,还真有公司上当了( 四 )

语音合成就更成熟了,你常用的百度地图、高德地图里,导航用的林志玲、易烊千玺等明星的语音包,都是用明星本人说的话做语料库训练,通过语音合成技术生成的。

甚至,今年315晚会上的AI骚扰电话,打来电话的声音也是语音合成的。

如果你想体验一下语音克隆的效果,可以试试最近在GitHub上非常火的这个实时语音克隆的开源项目Real-Time-Voice-Cloning。

项目中已经给出了预训练模型,下载到本地部署后,每次只要5秒钟,就可以把另外一个人说的话,变成你的声音。

正因为是这样,语音类的技术易得、易用,效果也不错,被坏人盯上也是难免的。

声音能造假,开视频验证呢?

以前的电信诈骗都是短信、微信文字,上当者会被银行工作人员提醒:打个电话确认一下。

现在,恐怕不仅要打电话,还要视频一下以确保是本人了。然而,现在的一些AI技术,不仅可以合成特定人的语音,甚至还能根据语音对口型、处理视频。

推荐阅读