神经网络中正向和反向通过的含义是什么?

每个人在谈论反向传播和时代时都提到这些表达。

我知道前进和后退共同形成一个时代。

最佳答案

“前进” 是指计算过程,即输入数据中输出层的值。它遍历了从第一层到最后一层的所有神经元。

根据输出值计算损失函数。

然后“向后传递” 指的是使用梯度下降算法(或类似方法)对权重变化进行计数(事实上的学习)的过程。从最后一层开始进行计算,然后再返回到第一层。

前后传递共同构成一个“迭代”

在一次迭代中,通常传递数据集的子集,称为子集“mini-batch” (如果一次传递所有数据,则称其为“batch”)

“Epoch” 表示传递整个数据集。一个时期包含number_of_items / batch_size次迭代

关于neural-network - 神经网络中的正向和反向传递是什么?,我们在Stack Overflow上找到一个类似的问题:https://stackoverflow.com/questions/36740533/

10-12 19:35