PNAS

2018-ECCV-Progressive Neural Architecture Search

  • Johns Hopkins University(霍普金斯大学) && Google AI && Stanford
  • GitHub:300+ stars
  • Citation:504

Motivation

目前的两种nas方法,EA和RL,存在计算代价高昂的问题

Contribution

只需要评估1/5的模型。

渐进式的搜索,从浅层网络开始,逐步搜索复杂网络。

提出一种近似评估模型好坏的评估函数(预测器),直接预测模型性能,而不是从头训练候选网络。

Several advantages:

代理网络比较小,训练速度快(代价可以忽略不计)。

预测器只需要预测稍微不同的网络。

将大的搜索空间分解为小的搜索空间的乘积。

效率相比RL方法提高5倍,总计算量快了8倍。

Method

Search Space

先学习cell结构,再堆叠cell到目标层数。

一个cell接收HxWxF的tensor,如果cell的stride=1,输出HxWxF的tensor,如果stride=2,输出H/2 x W/2 x 2F的tensor。

一个cell由B个block组成,每个block有2个input和1个output,每个block可以用一个五元组表示\(\left(I_{1}, I_{2}, O_{1}, O_{2}, C\right)\),第c个cell的输出表示为\(H^c\),第c个cell的第b个block的输出表示为\(H^c_b\)。

每个block的输入为当前cell中,在 {此block之前所有block的输出} 和 {上一个cell的输出,上上个cell的输出} 的集合。

Operator的选择空间有8种操作。

2018-ECCV-PNAS-Progressive Neural Architecture Search-论文阅读-LMLPHP

找到最佳cell结构后,堆叠预定义的层数,构成右边的完整网络,不继承权重(重新训练)。

Normal cell(stride=1)的数量,取决于N(超参)。

我们没有区分normal cell 和Reduction cell,仅将Normal cell的stride设置为2作为Reduction cell。

Progressive Neural Architecture Search

之前的方法直接搜索完整的cell结构,更糟糕的是整个cnn。

尽管这种方式很直接,但搜索空间太大,而且一开始我们没有任何先验知识指导我们在巨大的搜索空间往哪个方向搜索。

从每个cell含有1个block开始搜索。训练所有可能的\(B_1\),用\(B_1\)训练预测器,然后将\(B_1\)展开为\(B_2\)。

训练所有可能的\(B_2\)代价太大,我们使用预测器来评估所有\(B_2\)-cell的性能并选出最佳的K个\(B_2\)-cell,重复此过程(用选出来K个\(B_2\)-cell训练预测器,将选出的K个\(B_2\)-cell展开为\(B_3\),再用预测器选出最佳的K个...)。

Performance Prediction with Surrogate Model

Requirement of Predictor

  • Handle variable-sized inputs(接受可变输入)
  • Correlated with true performance(预测值与真实值得相关性)
  • Sample efficiency(简单高效)
  • The requirement that the predictor be able to handle variable-sized strings immediately suggests the use of an RNN.

Two Predictor method

RNN and MLP(多层感知机)

由于样本很简单,因此集成5个预测器(RNN-ensemble,MLP-ensemble),可以减少方差。

Experiments

Performance of the Surrogate Predictors

在{B=b}上训练,在{B=b+1}的集合上预测。

在所有{B=b}的cell集合中随机选择10k个作为数据集\(U_{b,1 :R}\),训练20个epochs。

从数据集U中随机选择256个作为每轮的训练集S。

一共会训练20*256=5120个数据点。

A(H) 返回cell的集合H训练后真实的准确率。

当B=b时,训练集为所有{B=b}的cell的一个子集,第一行为在所有{B=b}的cell的训练集(256*20=5120)上的预测结果和真实结果的相关性,

第二行为在所有{B=b+1}的cell的数据集(10k)上的预测结果和真实结果的相关性。

预测器在训练集{B=b}上表现良好,但在较大的数据集{B=b+1}上表现不够好,但随着b的增加,越来越好。

RNN方法的预测器在训练集{B=b}上表现更好,MLP在较大的数据集{B=b+1}上表现更好(我们关心的)

Conclusion

使用渐进式(cell的深度逐渐增加)的搜索加速NAS

使用可学习的预测器来识别潜在的最优网络。(引入P网络来搜索目标网络的最佳结构。eg. 用C网络来搜索B网络的最佳结构,而B网络又是来搜索A网络的最佳结构,套娃)

用小代价达到了了SOTA

Appendix

05-11 16:12