用脑电图也能做语音识别?新研究造福语音障碍者( 五 )
原文:
https://arxiv.org/abs/1906.07317
从深度预训练语言模型,转向端到端语音合成的转移学习
这一研究利用BERT辅助Tacotron-2的训练。Tacotron-2是一种由编码器和基于注意力的解码器组成的最先进的文本语音转换(TTS)方法。本研究的目的是利用深度预训练的学习管理系统所包含的丰富的文本知识来辅助TTS训练。
图3/6
结合BERT将输入文本序列转换成文本表示,这些文本表示与Tacotron-2编码器提取的文本表示并行,并将两者提供给Tacotron-2的解码器。BERT是一个基于转换器的模型,以无监督的方式训练大量文本。从大量未标记的文本数据中学习到的BERT表示法显示,它包含了非常丰富的输入文本的语义和句法信息,并且有可能被TTS系统利用,从而弥补高质量数据的不足。
从研究结果来看,将BERT加入到Tacotron-2框架中并不能提高合成音频的质量。但该方法在训练过程中收敛速度较快等其他方面的优势也能对tacotron-2模型进行改进。
推荐阅读
- 武侠|永劫无间狂销600万,创国产游戏巅峰,为何网易总能做出武侠爆款
- ag战队|一诺果真AG“亲儿子”,赛后语音曝光:月光强令一诺做最终决策,网友吐槽难怪输那么惨
- 王者荣耀|王者荣耀:异界灵契技能特效升级优化,拒霜思语音二选一,上官婉儿或获得亚运会专属
- 原神|T1再次证实FPX训练赛强,队内语音迟迟未放出,LNG也意难平!
- 原神|AG赛前语音曝光,猫神自黑玩梗求血包,语气卑微让人心疼
- ag战队|AG局内语音曝光,一诺再也不用指挥了,最初一句话拯救队伍
- ZARD|Dota2-Zard透露“刀塔拯救计划”进展:预计下个月就能做出来了!
- ag战队|AG队内语音曝光,月光只是傀儡,真正做BP的“主教练”是他!
- 国服|光遇:好友互心也要收回?国服处罚越来越严格,这件事不能做!
- |打打游戏也能月入过万?代练现在究竟能不能做