机器之心报道
编辑:张倩
既能利用多粒度输入信息 , 又不降低推理速度 , 腾讯看点等机构的研究者在一篇 ACL 论文中提出了一种高效的语言模型预训练方法荔枝 LICHEE 。 经过半年多的摸索改进 , 荔枝 LICHEE 同时登顶 CLUE 分类榜单、阅读理解榜单、总榜单 , 其相关的技术创新也被 ACL 2021 录用 。近日 , 腾讯看点 NLP 内容算法专家郭伟东在机器之心举办的 ACL 论文分享会上对此研究进行了解读 , 欢迎大家浏览视频 。

文章图片
基于大型语料库的语言模型预训练在构建丰富的上下文表示方面已经取得了巨大的成功 , 也在一系列自然语言理解任务中实现了显著的性能提升 。 然而 , 现有的预训练语言模型(如 BERT)大多是基于单粒度训练而成的 , 通常伴随细粒度的字符或 sub-word , 这使其很难学习粗粒度词汇和短语的准确含义。
为了得到更加准确的模型 , 部分研究者试图通过在预训练阶段 mask 连续 token 的序列 , 将粗粒度信息纳入到用细粒度分词训练的模型中 。 还有研究者提出了一种可以处理多粒度输入文本的模型——AMBERT 。 它利用两个具有共享权重的编码器将细粒度 token 和粗粒度 token 分别编码为两个上下文表示序列 。 虽然 AMBERT 效果不错 , 但它的推理成本却比原始 BERT 高了一倍左右 , 这在业界的很多场景下都是不可接受的 。
为了得到更加准确的模型 , 主要的研究方向分为两类:
- 在 MASK 层引入粗粒度信息 , 如 whole word mask 或者 ERNIE 1.0;
- 在嵌入层引入粗粒度信息 , 如 ZEN 何 AMBert 。
在这篇 ACL 论文中 , 来自腾讯看点和阿尔伯塔大学的研究者提出了一种简单但高效的预训练方法——荔枝 LICHEE 。 该方法可以在预训练阶段有效利用多种粒度的输入信息来增强预训练语言模型(PLM)的表示能力 。

文章图片
论文链接:https://arxiv.org/pdf/2108.00801.pdf
与 AMBERT 不同的是:AMBERT 利用两个编码器编码细粒度和粗粒度 token , 这使得推理成本大大增加;但在 LICHEE 中 , 输入文本的多粒度信息融合发生在嵌入层 , 不需要改变 PLM 原有的模型结构 , 因此几乎不会带来额外的推理开销 。
具体来说 , LICHEE 首先会将输入文本处理成细粒度和粗粒度 token 。 然后 , 这些 token 会被传送到两个嵌入层 , 生成对应的向量表示 。 接下来 , 两种向量表示通过池化操作进行融合 , 形成多粒度嵌入向量 , 作为 PLM 编码器的输入 。 最后 , 我们得到由 PLM 编码器生成的增强上下文表示(包含细粒度和粗粒度信息)并将其用于下游任务 。
在 CLUE 和 SuperGLUE 上进行的实验表明 , 该方法在中、英两种语言的多个自然语言理解任务中都能带来全面的性能提升 , 而且几乎不增加额外的推理成本 。 采用该方法的最优集成模型在 CLUE 基准上实现了 SOTA 性能 。
此外 , 使用荔枝做特征抽取器 , 在词法分析任务 CLUENER 和千言数据集文本相似度任务上取得了超越其他模型的结果 。

文章图片

文章图片
在机器之心 7 月 31 日举办的 ACL 2021 论文分享会上 , 本文第一作者、腾讯看点 NLP 内容算法专家郭伟东详细介绍了他们的这项研究成果 , 感兴趣的同学可以点击文末链接 , 查看回顾视频 。
方法概览
下图 1 显示了 LICHEE 的框架 。 它利用多粒度输入信息来增强预训练语言模型的表示能力 。

文章图片
该框架以文本序列作为输入 , 它们被分解为 token 序列 。 在这篇论文中 , 研究者选择保留两个词汇 , 并用两个分词器执行细粒度和粗粒度分词 , 词汇中的 item 是基于它们在预训练语料库中的 token 频率来选择的 。 此外 , 「细粒度」和「粗粒度」的定义因语言而异 。 例如 , 在英文中 , 词汇和短语通常分别被用作细粒度和粗粒度 token 。 但在中文中 , 细粒度和粗粒度 token 就要对应汉字和词汇 。
在论文中 , 对于一个给定的输入文本序列 T , 研究者用

文章图片
表示第 i 个细粒度 token;用

文章图片
来表示一个粗粒度 token , 这个 token 由 j 和 k 之间的细粒度 token

文章图片
组成 。 比如说 , 在图 1 中 , 粗粒度 token「 New York Times 」由第一、第二和第三个细粒度 token 组成 , 并表示为

文章图片
分词之后 , 研究者利用两个独立的嵌入层将分解之后的 token 映射为它们的向量表示 。 具体来说 , 每个细粒度的 token

文章图片
被传递到一个细粒度嵌入层 , 以产生该 token 的细粒度嵌入向量

文章图片
, 其中的 d 表示该细粒度嵌入的维数 。 类似的 , 通过将 token

文章图片
馈入粗粒度嵌入层 , 可以得到拥有相同维度 d 的粗粒度嵌入

文章图片
。 公式如下:

文章图片
对于每个 token

文章图片
, 研究者通过执行一个最大池化操作来构建其多粒度嵌入向量

文章图片
。 公式如下:

文章图片
其中 ,j ≤ i ≤ k 。 注意 , d 等于单粒度 PLM 的原始嵌入维数 , 以证明性能增益是由于引入了多粒度信息 , 而不是修改了模型结构造成的 。
最后 , 将组合嵌入向量

文章图片
馈入 PLM 编码器 , 以构建最终的、借助多粒度信息增强的上下文表示

文章图片
。 公式如下:

文章图片
实验结果
中文任务
如下表 1 所示 , 研究者在三个预训练语言模型(BERT、ALBERT 和 GPT)上采用了本文中提出的多粒度预训练方法 , 并在 CLUE 排行榜上比较了这些模型和它们的单粒度基线 。 从结果可以看出 , 通过利用文本输入的多粒度信息 , 荔枝 LICHEE 实现了明显的性能提升 。

文章图片
为了进一步探索荔枝 LICHEE 的潜力 , 研究者将其应用到了一个基于 BERT-large 的集成模型上 , 并在 CLUE 基准上进行了评估 。 如下表 2 所示 , LICHEE 在 CLUE 9 项任务中的平均分明显高于其他平台 , 还在 IFLYTEK、CSL 两项自然语言理解任务上取得了 SOTA 结果 。 这一表现进一步证明了 LICHEE 能够显著提高语言模型的表示能力 , 并且对大量下游 NLU 任务普遍有效 。

文章图片
为了评估多粒度设计的影响 , 并对多粒度嵌入的不同集成方法进行全面的分析 , 研究者还在 CLUE 基准上进行了消融分析 。 下表 3 列出了不同训练策略下模型变量的表现 , 包括两种单粒度方法和五种多粒度方法 。 从中可以看出 , 有最大池化加持的荔枝 LICHEE 平均分高于其他所有方法 , 在 3 项 CLUE 任务中达到了最高分数 。

文章图片
英文任务
为了评估 荔枝 LICHEE 在英文任务中的表现 , 并将其与单粒度基线 BERT-WWM 进行比较 , 研究者在 SuperGLUE 基准上进行了实验 。
如下表 4 所示 , 用荔枝 LICHEE 方法预训练的 BERT 模型在 8 项 SuperGLUE 任务中都超越了单粒度基线 BERT-WWM , 平均分比后者高出 1.89 。 这一结果表明 , 荔枝 LICHEE 的有效性很大程度上归功于其多粒度表示的信息增益 , 而不仅仅是 token 边界信息 。

文章图片
推理速度
除了荔枝 LICHEE 在中、英语言任务中的表现 , 研究者还探索了其推理速度 。 并将其与原始的单粒度 BERT 和另一种多粒度方法 AMBERT 进行了比较 。
下图 5 给出了在序列长度为 512 的二分类任务上测试的 FLOP 和加速结果比较 。

文章图片
可以看出 , AMBERT 的 FLOP 是 87.0B , 比单粒度 BERT 高出一倍 , 这意味着推理时间也增加一倍 。 对于很多现实世界的应用来说 , 这通常是不可接受的 。 相比之下 , 荔枝 LICHEE 的 FLOP 仅为 43.5B , 比单粒度基线高出的部分几乎可以忽略不计 , 因为多出来的操作只包括粗粒度 token 的一个嵌入查找操作和集成细粒度与粗粒度嵌入向量的最大池化操作 。 所以总的来说 , 荔枝 LICHEE 可以实现显著的性能提升 , 而无需额外的推理时间 。
腾讯看点内容 AI 算法团队是腾讯 PCG 看点线专门负责内容处理工作的团队 , 包括文本、图片以及视频多模态的内容理解和内容生成相关工作 。
团队目前已经建设了丰富的内容 AI 相关的中台能力 , 并为腾讯 PCG 各个重要产品线提供开放使用 , 包括腾讯看点、腾讯新闻、QQ、腾讯微视等 。
【信息|ACL2021 | 多粒度输入信息不降低推理速度,腾讯看点提出高效预训练方法LICHEE】回放链接:https://app6ca5octe2206.pc.xiaoe-tech.com/detail/v_6108f53ce4b0cce271b93f2d/3?from=p_6108e354e4b054ed7c495ab3&type=6
推荐阅读
- 建设|这一次,我们用SASE为教育信息化建设保驾护航
- 硬件|汽车之家年底裁员,员工称多个职能部门已被撤销
- 语境|B站2021个人年度报告发布:你共计看了多少个视频
- 最新消息|IT系统出错 英国银行给7.5万人多发11亿工资
- 硬件|闪极140W多口充电器发布:首发399元 支持PD3.1
- AirPods|苹果谈论AirPods 3:最大榨取蓝牙技术,希望获得“更多带宽”
- 孙自法|中国科技馆“智能”展厅携多款机器人亮相 喜迎新年和人机共融时代
- Pro|价格相差1000块钱 买小米12还是小米12 Pro?很多人选错了
- 观众|中国科技馆“智能”展厅携多款机器人亮相
- Tesla|网传特斯拉等新能源汽车保费上涨超50% 多家车险公司回应不实