董董灿是个攻城狮

董董灿是个攻城狮

这一节是算法原理和背景的最后一章节,下一节开始进入实战部分。

如果你从第一节看到这一节,这总共56节的内容基本上都能理解的话,那么恭喜你,算法原理部分已经掌握了,也基本接近入门了。

总结一下算法原理的部分,介绍了传统计算机视觉的一些算法,比如滤波算法,然后介绍了一些深度学习的基础概念,包括训练和推理,正向传播,反向传播和损失函数。

随后重点介绍了resnet这一神经网络中用到的算法,包括卷积算法,批归一化算法,池化算法,激活函数,还有矩阵乘算法,以及每一个算法的原理和优势。

最后面的几节介绍了全连接算法,交叉熵损失函数,还有softmax算法。

同时在介绍一些常见算法的过程中,夹杂了一些算法的代码实现,这些实现是最原始的实现版本,只是实现功能,后面代码实战部分会逐步进行性能优化。

在进入实战之前,本节再继续介绍一下 resnet 这个神经网络中存在的一个概念,叫做下采样。

resnet 中的下采样

所谓下采样,我们可以通俗的理解为将原始输入的像素点数进行采样,采样的结果是输出的像素点数小于输入的像素点数,也就是采样。

要实现下采样,有很多种算法,resnet 中主要使用以下两种算法来实现的。

第一种是使用步长为2的卷积层。

步长为2的卷积层指的是卷积参数中stride等于2。还记得在介绍卷积参数的时候stride=2是什么意思吗?

它代表了每隔一个像素点进行一次计算,因此这样计算之后,

01-07 12:20