“让Keras更酷一些!”:分层的学习率和自由的梯度( 四 )
\n\t
对比 (1) 和 (3) , 大家能明白我想说什么了吧:
在 SGD 优化器中 , 如果做参数变换 θ=λ? , 那么等价的结果是学习率从 α 变成了 。
\n\t
不过 , 在自适应学习率优化器(比如 RMSprop、Adam 等) , 情况有点不一样 , 因为自适应学习率使用梯度(作为分母)来调整了学习率 , 抵消了一个 λ , 从而(请有兴趣的读者自己推导一下):
在 RMSprop、Adam 等自适应学习率优化器中 , 如果做参数变换 θ=λ? , 那么等价的结果是学习率从 α 变成了 λα 。
移花接木调整学习率
有了前面这两个结论 , 我们就只需要想办法实现参数变换 , 而不需要自己重写优化器 , 来实现逐层设置学习率了 。
实现参数变换的方法也不难 , 之前我们在《 “让Keras更酷一些!”:随意的输出和灵活的归一化》[1
\n一文讨论权重归一化的时候已经讲过方法了 。 因为 Keras 在构建一个层的时候 , 实际上是分开了 build 和 call 两个步骤 , 我们可以在 \nbuild 之后插一些操作 , 然后再调用 call 就行了 。
推荐阅读
- gen.g战队|转会流言板:截止11月9日的一些传言:尺帝留队,GEN在争取Canyon、Nuguri
- gt赛车7|三国杀:有关陆抗的一些冷门知识
- |米游社区能给你带来什么惊喜,玩家:一些热爱游戏的知己好友
- 剑三|纪念一些泰拉瑞亚手游当年玩的时候的趣事
- 旅行者|阴阳师:关于3000分以下炸盾流的一些心得
- fate grand order|Fate/Grand Order:关于妖兰五加成泛用队的一些简约数据
- 法术|《哈利波特:魔法觉醒》关于弗立维法术流派的一些经验和探讨
- 许攸|三国杀:一些标将技能的误解,快看看你中招没
- 魔兽世界|魔兽世界部分NPC被改名,全是女性,其中有一些甚至连性别都变了
- 三国杀|完美防御你可曾见过,三国杀只有她能做到,还带着一些暴力