伯克利AI研究院:强化学习是GPT2等自回归语言模型弥补不足的良方?( 四 )
然而这些模型也显示出一些缺陷 , 并且这些缺陷可能无法仅通过扩大模型(更大的模型、数据、计算量)来弥补 。 在这篇文章中 , 我们将快速概览其中的一些缺陷并尝试解决这些问题 , 并在此基础上讨论未来研究的一些潜在方向 。
作者 | 伯克利AI研究院官博(BAIR) 译者 | 凯隐 , 责编 | 夕颜
以下为译文:
随着GPT2的成功 , 其他一些实体也加入了这一潮流 , 并发布了自己的大型单向语言模型 , 例如Grover , Nvidia的Megatron-LM和Salesforce的CTRL 。 且不说OpenAI声称该模型“太危险而不能发布”而引发的争议 , GPT2生成的文本从各方面来看都要比以前的文本生成模型好很多 。
什么是自回归语言模型?为何这种模型很重要?
语言建模的核心问题是使用参数化函数逼近英语(或Lojban , Navajo , Python等) 中自然语言序列的分布 。 为了让建模更加灵活 , 自回归语言模型中将理想模型 表示为:
推荐阅读
- 腾讯|腾讯49亿日元投资目标明确:3款新游明后年全球发行,强化主力IP
- s6|金铲铲之战S6:值得改变阵容的海克斯强化介绍,让你如虎添翼
- 假面骑士|假面骑士revice强化形态印章玩具实物公开 一辉:我要打三个干部
- s6|金铲铲之战s6测试服:海克斯强化有多爽?超肉坦克也能成为大杀器
- 法术|双城之战:羁绊、海克斯强化、装备一文看懂
- 地下城与勇士|DNF:狂人赞助强化毁区!诞生2把16武器,号主选择继续上17
- 精灵宝可梦|《宝可梦》经常被玩家忽略的免疫特性,食草能视为强化手段来用?
- 地下城与勇士|DNF这游戏的刺激点太多,翻牌开盒子强化增幅,深渊闪光
- 假面骑士|假面骑士revice追加情报:强化形态对标闪耀蝗虫 二骑和疾符有关
- 天龙八部|新天龙八部:强化活动来袭,又准备氪多少,还是白嫖稳妥