研究|1.6万亿参数的语言模型:谷歌大脑提出Switch Transformer 在计算资源相同的情况下,SwitchTransformer的训练速度可以达到T5模型的4-7倍。在深度学习领域,... 2021-01-13
策略|全新训练及数据采样&增强策略,FB全景分割实现新SOTA 来自Facebook的研究者通过引入实例scale-uniform采样策略与crop-aware边框回归损失,能够在所有尺度... 2021-01-11
语料|同时掌握96门语言,取得多项世界突破,百度发布预训练模型ERNIE-M ERNIE-M通过对96门语言的学习,使得一个模型能同时理解96种语言,该项技术在5类典型跨语言理... 2021-01-08
趋势|AWS:机器学习的趋势是提供端到端的解决方案 ”在今年的2020亚马逊re:Invent大会上,AWS副总裁SwamiSivasubramanian如此评价机器学习的重要性。仅... 2021-01-05