AI打星际II更厉害:Deepmind的AlphaStar 10比0赢了人类( 二 )

玩过星际的人应该知道这个游戏的复杂 , 对反应及微操要求都很高 , 还有APM(每分钟操作数)这个指标来衡量专业选手的能力 , 职业选手的APM一般能达到200-300 , 有个韩国选手朴圣俊有过818APM的记录 , 不过APM这事在AI上就没什么意义了 , 可以轻松实现数万个APM的水平 。

也正因为此 , 这两次的比赛中实际上限制了AlphaStar的APM数 , 平均为280APM , 这比专业选手的水平要差 , 同时还增加了AlphaStar“观察-行动”之间的延迟到350毫秒 , 这也是故意限制AI的性能 , 因为人类选手需要看地图再反馈的时间 。

尽管有这么多限制 , 但是AlphaStar在对战人类职业选手的比赛中还是轻松取胜了 , 而且是10:0 , 人类毫无还手之力 。 为了训练AlphaStar , Deepmind团队使用谷歌的TPU v3创建了一个分布式训练系统 , 从数千场星际II比赛实例中学习训练 , 只用14天就积累了大约200年的实战经验 , 这个水平是永远超过正常的职业选手训练量的 。

推荐阅读