谷歌AI探索无障碍沟通( 三 )

然而,对上千万的中风、ALS 、多发性硬化、创伤性脑损伤和帕金森氏症等神经系统疾病而产生语言障碍的人士来说,这就是他们每天都必须面对的情况。

造成语言障碍的成因有很多,有些是听力受损,有的是脑部控制语言的神经系统受到创伤,还有的是脸部肌肉不受控制,导致发音模糊,含糊不清。

非营利组织 ALS-TDI(美国 ALS 研究机构)的临床团队在过去几年中发现,即使有严重发音障碍(语言障碍)的 ALS 患者,也可以被亲密朋友和家人理解。这说明,只要有足够多的声音样本,AI 可以学习如何解释受损的声音。

看到这一技术实现的可能性后,谷歌在 2019 开发者大会上推出 Project Euphonia,计划用 AI 来了解语言障碍者的讲话方式,例如含糊不清、不完整的讲话,从而实现精准的语音转写。

此项目的声音样本主要通过与 ALS-TDI(美国 ALS 研究机构)与 ALS Residence Initiative(ALS 住宅计划)合作获得,录下 ALS 患者的声音,然后将录下的语音转成声谱图,或以更视觉化的图像方式来呈现声音。接着计算机用转录的声谱图拿来训练模型,以更准确辨识这类非典型的语音。

推荐阅读