ACL2019新论文,痛批“不计算力追逐丁点提升”的研究方法
“这绝对不是好的趋势,我们应该用更有创意,而不是纯粹‘加算力’的方式去做研究。”
图1/6
“有些人做神经网络训练,完全不计代价,太不负责任了!”
小张是一名硅谷大公司的深度学习研究员,安坐在开着冷气的房间里写代码、调参、训练再训练。
经过数月不懈的努力,新模型终于完成了,得到了一个3%提升的 state-of-the-art 结果。不仅公司的产品将因为这一进步获得巨大的性能提升,数以百万的用户因为这一改进而受益,小张的新论文也有着落了。
数据制表填好,小张把论文发给了正等着写博客宣告这一好消息的市场部同事,满意地关掉了虚拟机,开着特斯拉回家了,感觉今天又为人类做了一件微不足道的好事。
小张不知道的是,数百吨二氧化碳就这样散布到了大气当中。
根据一份提交到自然语言处理顶会 ACL 2019 的论文,三位来自马萨诸塞大学安姆斯特分校的研究者分析了一些主流 NLP 模型训练的碳排放水平。
推荐阅读
- 论文查重选择合适软件需要看哪些方面
- 论文怎么免费查重找对软件才是关键
- 论文数据哪里找?这些网站不能少!
- 掌握这四个页码设置技巧,办公、论文不用愁!超实用教程
- 快收下这个小工具,一次性把论文作图与数据处理全部搞定!
- 同济大学在国际顶级期刊《科学》上发表论文,真牛!
- 「论文推荐」刘鹏坤等:综采工作面智能云台摄像仪研制
- 图灵奖得主 LeCun 用来怼 Google 的乳腺癌 AI 论文,有何过人之处?
- 超硬核90后论文:从0开始打造cpu和电脑
- 毕业论文如何选题?要遵循哪些原则?现在统统告诉你!