想效仿英伟达50分钟训练 BERT?只有GPU还不够……( 六 )
实验
所有实验均在英伟达 DGX SuperPod4 上实施,研究者使用了多达 32 个 DGX-2H 服务器(共 512 块 Tesla V100 SXM3 32GB GPU)。
为了测试研究中实现的可扩展性,研究人员考虑使用四种参数设置的 GPT-2 模型,如下表所示:
图6/10
表 1:可扩展性研究中所使用的参数。每个注意力头的隐藏层大小均为 96。
下图 6 展示了 model 和 model+data 并行化的扩展效率。我们可以看到,在两种设置下均出现了不错的扩展效率。
图7/10
图 6:model parallel (a) 和 model+data parallel (b) 的弱扩展效率,x 轴表示 GPU 数量。
推荐阅读
- 虎牙|LOLM阿克尚上线,虎牙皓月月开创其打野玩法,主播职业纷纷效仿!
- 亚瑟|国服亚瑟直言要致敬北慕,弹幕炸裂要告状北慕!这玩法在效仿德华
- estar|eStar首发清融迎战GK,诺言和Alan后续都会出场,SK要效仿月光?
- 仙剑奇侠传七|英伟达公布最新支持DLSS游戏:《仙剑7》性能表现强势
- dota2|DOTA2:50分钟猴子还是1打5,到底谁的锅?
- RNG|苦战50分钟!BLG终结RNG九连胜,WE腿哥指出问题所在
- 大话西游2|大话西游2:飘渺郎君早年巅峰数据曝光!至今被人效仿
- 吕布|KPL吕布携带“小黄刀”火了,被路人局玩家效仿,但是效果并不好
- 女主播|斗鱼女主播将效仿日本女星拍片 预告在公交车上为大家奉献才艺
- 迷你世界|效仿我的世界?迷你世界有光影却不启用,背后原因太真实