机器之心报道
编辑:小舟、陈萍
来自多伦多大学和斯坦福大学的研究者开发了一种在连续深度贝叶斯神经网络中进行近似推理的实用方法 。把神经网络的限制视为无限多个残差层的组合 , 这种观点提供了一种将其输出隐式定义为常微分方程 ODE 的解的方法 。 连续深度参数化将模型的规范与其计算分离 。 虽然范式的复杂性增加了 , 但这种方法有几个好处:(1)通过指定自适应计算的容错 , 可以以细粒度的方式用计算成本换取精度;(2)通过及时运行动态 backward 来重建反向传播所需中间状态的激活函数 , 可以使训练的内存成本显著降低 。
另一方面 , 对神经网络的贝叶斯处理改动了典型的训练 pipeline , 不再执行点估计 , 而是推断参数的分布 。 虽然这种方法增加了复杂性 , 但它会自动考虑模型的不确定性——可以通过模型平均来对抗过拟合和改进模型校准 , 尤其是对于分布外数据 。
近日 , 来自多伦多大学和斯坦福大学的一项研究表明贝叶斯连续深度神经网络的替代构造具有一些额外的好处 , 开发了一种在连续深度贝叶斯神经网络中进行近似推理的实用方法 。 该论文的一作是多伦多大学 Vector Institute 的本科学生 Winnie Xu , 二作是 NeurIPS 2018 最佳论文的一作陈天琦 , 他们的导师 David Duvenaud 也是论文作者之一 。

文章图片
- 论文地址:https://arxiv.org/pdf/2102.06559.pdf
- 项目地址:https://github.com/xwinxu/bayesian-sde
在这种方法中 , 输出层的状态由黑盒自适应随机微分方程(SDE 求解器计算 , 并训练模型以最大化变分下界 。 下图将这种神经 SDE 参数化与标准神经 ODE 方法进行了对比 。 这种方法保持了训练贝叶斯神经 ODE 的自适应计算和恒定内存成本 。

文章图片
无限深度贝叶斯神经网络(BNN)
标准离散深度残差网络可以被定义为以下形式的层的组合:

文章图片
【网络|结合随机微分方程,多大Duvenaud团队提出无限深度贝叶斯神经网络】其中 t 是层索引 ,

推荐阅读
- 网络|天津联通全力助推天津市入选全国首批千兆城市
- 网络化|工信部:2025年建成500个以上智能制造示范工厂
- 视点·观察|张庭夫妇公司被查 该怎样精准鉴别网络传销?
- 数字化|70%规模以上制造业企业到2025年将实现数字化、网络化
- 人物|俄罗斯网络博主为吸引流量 闹市炸毁汽车 结果够“刑”
- 协同|网文论︱网络文学与AI写作:人机协同演化时代的文学之灵
- 周鸿祎|网络安全行业应提升数字安全认知
- 安全风险|网络安全行业应提升数字安全认知
- 海康威视|智能家居战场又添一员,海康威视分拆萤石网络上市,半年营收20亿 | IPO见闻
- 网络应用|免费、不限速 8大网盘今年都已提供无差别速率服务