神经网络中正向和反向通过的含义是什么?
每个人在谈论反向传播和时代时都提到这些表达。
我知道前进和后退共同形成一个时代。
最佳答案
“前进” 是指计算过程,即输入数据中输出层的值。它遍历了从第一层到最后一层的所有神经元。
根据输出值计算损失函数。
然后“向后传递” 指的是使用梯度下降算法(或类似方法)对权重变化进行计数(事实上的学习)的过程。从最后一层开始进行计算,然后再返回到第一层。
前后传递共同构成一个“迭代” 。
在一次迭代中,通常传递数据集的子集,称为子集“mini-batch” (如果一次传递所有数据,则称其为“batch”)
“Epoch” 表示传递整个数据集。一个时期包含number_of_items / batch_size次迭代
关于neural-network - 神经网络中的正向和反向传递是什么?,我们在Stack Overflow上找到一个类似的问题:https://stackoverflow.com/questions/36740533/