原创<br> 8种优秀预训练模型大盘点,NLP应用so easy!( 七 )
BERT是Bidirectional Encoder Representations(双向编码器表征)的简称。这个模型可以同时考虑一个词的两侧(左侧和右侧)上下文,而以前的所有模型每次都是只考虑词的单侧(左侧或右侧)上下文。这种双向考虑有助于模型更好地理解单词的上下文。此外,BERT可以进行多任务学习,也就是说,它可以同时执行不同的NLP任务。
BERT是首个无监督的、深度双向预训练NLP模型,仅使用纯文本语料库进行训练。
在发布时,谷歌称BERT进行了11个自然语言处理(NLP)任务,并产生高水平的结果,这一壮举意义深远!你可以在短短几个小时内(在单个GPU上)使用BERT训练好自己的NLP模型(例如问答系统)。
想获得更多有关BERT的资源,请参阅:
谷歌官方博文
https://ai.googleblog.com/2018/11/open-sourcing-bert-state-of-art-pre.html
推荐阅读
- 精灵宝可梦|《宝可梦》人称神兽版本“秃鹰娜”,伽勒尔火焰鸟的表现多优秀?
- 单机|游戏《原神》,算是挺优秀的游戏了,就是获取资源有些慢
- 狄仁杰|狄仁杰是现在的T0射手?强度稳定,技能机制优秀
- 阴阳师|外媒评有史以来最优秀的10款恐怖游戏,谁是你的童年阴影
- 机战|机战30:原创女主三叶收获极高评价 夏亚坦言这是自己的新妈妈
- |被埋没的优秀大作,还没有走向热榜,却已经过时了
- 剑网3|几部优秀的游戏类文!虚拟!现实!
- fate grand order|fgo四星骑阶灰姑娘龙娘强度初评公开 骑阶金时的优秀替代打手
- 伐木工|《明日之后》萌新学院:末世优秀伐木工都是怎么炼成的?
- 三国杀|三国杀:不是神将的神将!这些武将堪称强大,每一个都是那么优秀