目录

1.最小梯度下降(Mini-batch SGD)

2.激活函数

2.1 sigmoid

2.2 tanh

2.3 ReLU 

2.4 Leaky ReLU 

2.5 ELU 

2.6 最大输出神经元 

2.7 建议 

3.数据预处理 

4. 如何初始化网络的权值

5. 批量归一化

6.超参数的选择


1.最小梯度下降(Mini-batch SGD)

2.激活函数

2.1 sigmoid

2.2 tanh

2.3 ReLU 

2.4 Leaky ReLU 

2.5 ELU 

2.6 最大输出神经元 

2.7 建议 

3.数据预处理 

4. 如何初始化网络的权值

5. 批量归一化

6.超参数的选择

12-11 07:03