【周末AI课堂】理解变分自编码器 | 机器学习你会遇到的“坑”( 八 )
我们希望保持这样的结构 , 但同时也希望对这样的结构作出限制 , 较为优雅的方式就是更改我们的Loss , 在Loss中添加惩罚项 , 使得Z的编码分布更像标准的正态分布 。 要达到这一目的 , 即编码分布越像标准正态分布 , Loss就越小 , 就可以使用KL散度(相对熵) , 计算当前分布与标准正态分布的差异 。 所以 , 我们要在度量生成图和原有图的autoencoder中添加一个约束项:
只需要利用微积分的知识 , 就可以将其化简为:
这个公式是从KL散度中直接推导而来 , 似乎并不好解释 。 但是我们可以拆成两项来直观的理解 , 关于
的项 , 是为了保证当
为1的时候 , 这一项对Loss的贡献为零 , 同时尽可能平滑;关于均值
推荐阅读
- FMVP|Scout的FMVP争议过大,根本原因在于观众不理解什么是FMVP!
- 电子竞技|夺冠刷屏的周末,什么样的ETF抓住了年轻人的心?
- 原神|原神:这个周末,一个争议引来外网的“插足”舆情
- |“Chovy打法不适合职业!”Doinb点评S赛中单,Cryin游戏理解很好!
- 炸弹人|DK惊险拿下胜利,扣马第五局关键BP带起节奏,史一教游戏理解真强
- dota2|Dota2-单车老师疯狂吐槽7.30e:设计师对这个游戏的理解有问题!
- 坦克英雄|LOL又一坦克英雄被玩坏!既能当刺客又能当战士,绝活哥理解领先版本
- 典韦|王者荣耀:典韦出末世,这是高端理解呢,还是说确实很香
- 我的世界|我的世界:为什么“梗图”很好玩,玩家:每看一次都有不同的理解
- steam|steam平台“周末特惠”与“万圣节特卖”活动开启,两款佳作推荐