伯克利AI研究院:强化学习是GPT2等自回归语言模型弥补不足的良方?( 八 )

总结

虽然最近的工作已经证明由于模型大小的增加 , 神经文本生成的质量有了巨大的改进 , 但是曝光误差的问题仍然存在于生成的长序列文本中 。 这方面的进展可能需要从强化学习的工作中吸取经验 。 事实上 , 在强化学习和语言建模的相互结合这个思路上 , 已经出现了许多有前途的工作 。 希望这些改进的语言模型不仅是在单个段落的尺度内 , 也可以在整篇文章的范围内与人工文本一较高下 。

参考链接

GPT2:

“The Curious Case of Neural Text Degeneration”:

“Neural Text DeGeneration with Unlikelihood Training”:

原文链接:

推荐阅读