ACL2019新论文,痛批“不计算力追逐丁点提升”的研究方法( 二 )

他们发现,像 Transformer、GPT-2 等时下最火的深度神经网络技术,为 NLP 带来的长足的进展,同时却产生了大量的温室气体排放。

论文的第一作者,马萨诸塞大学安姆斯特分校博士生艾玛·斯特贝尔 (Emma Strubell) 接受了硅星人的中文独家采访。

谈到为什么要做这项研究,斯特贝尔透露,由于学术圈论文通常发布在学术会议上,这篇论文灵感,就是来自于同僚关于坐飞机参加学术会议对环境影响的讨论。

“既然都扯到坐飞机跑会了,为什么不先来探讨一下深度学习训练本身对环境的影响?”斯特贝尔告诉硅星人。

而这次研究的结果让她自己都吓了一跳:其实,深度学习训练的碳排放远超跨国飞行。

ACL2019新论文,痛批“不计算力追逐丁点提升”的研究方法

图2/6

论文作者与同事合照 Image Credit: UMass IESL

论文作者首先确定了 NLP 模型训练能耗的量化方式。

推荐阅读