?微软提出Petridish,完美解决问题的神经网络?( 四 )

\n


最近 , 微软研究院推出了Petridish , 一种优化神经网络结构选择的NAS算法 。  之所以开发NAS , 是因为神经网络的设计过程相当消耗资源 。 在当前的深度学习生态系统中 , 借助于知名的 , 性能一流的网络 , 数据集可能与之前已被证实的网络所遇到的完全不同 , 几乎没什么保证 。 在许多情况下 , NAS方法通常需要数百天才能找到好的架构 , 并且效果几乎很难比随机搜索好 。

\n \n

机器学习中还有一个类似于NAS技术挑战的问题:特征选择 。  就像NAS方法一样 , 特征选择算法需要为给定特定数据集的模型提取相关特征 。 显然 , 选择特征比神经网络体系结构要简单得多 , 但是特征选择技术的许多原理为Petridish团队提供了灵感 。  

\n

获取经验的方式:NAS的简要历史

\n \n

鉴于NAS方法最近的热度 , 许多人可能认为NAS是一门新兴学科 。  毫无疑问 , 自2016年以来 , 随着谷歌发表了有关强化学习的著名NAS论文 , NAS经历了复兴 。 但是 , 其起源可以追溯20世纪80年代末 。

\n \n

推荐阅读