大家好,我是哪吒。

🏆本文收录于,目标检测YOLO改进指南

本专栏均为全网独家首发,内附代码,可直接使用,改进的方法均是2023年最近的模型、方法和注意力机制。每一篇都做了实验,并附有实验结果分析,模型对比。


在机器学习和自然语言处理领域,随着数据的不断增长和任务的复杂性提高,传统的模型在处理长序列或大型输入时面临一些困难。传统模型无法有效地区分每个输入的重要性,导致模型难以捕捉到与当前任务相关的关键信息。为了解决这个问题,注意力机制(Attention Mechanism)应运而生。

一、注意力机制介绍

1、什么是注意力机制?

注意力机制(Attention Mechanism)是一种在机器学习和自然语言处理领域中广泛应用的重要概念。它的出现解决了模型在处理长序列或大型输入时的困难,使得模型能够更加关注与当前任务相关的信息,从而提高模型的性能和效果。

本文将详细介绍注意力机制的原理、应用示例以及应用示例。

2、注意力机制的分类

3、注意力机制的核心

注意力机制的核心思想是根据输入的上下文信息来动态地计算每个输入的权重。这个过程可以分为三个关键步骤:计算注意力权重、对输入进行加权和输出。首先,计算注意力权重是通过将输入与模型的当前状态进行比较,从而得到每个输入的注意力分数。这些注意力分数反映了每个输入对当前任务的重要性。对输入进行加权是将每个输入乘以其对应的注意力分数,从而根据其重要性对输入进行加权。最后,将加权后的输入进行求和或者拼接,得到最终的输出。注意力机制的关键之处在于它允许模型在不同的时间步或位置上关注不同的输入,从而捕捉到与任务相关的信息。

二、SE模块

1、SE模块的原理

SE(Squeeze-and-Excitation)模块是一种轻量级的注意力机制。它通过学习通道间的相互依赖关系,来增强有用的特征并抑制无用的特征。SE模块由两个部分组成:squeeze部分和excitation部分。squeeze部分使用全局平均池化层将每个通道的特征图压缩为一个标量,然后传递给excitation部分。excitation部分使用两个密集连接层,分别使用ReLU激活函数和sigmoid激活函数,来计算通道权重。最后,将每个通道的特征图与其对应的通道权重相乘,以产生具有更高加权响应的特征图。

YOLOv5/v7 添加注意力机制,30多种模块分析①,SE模块,SK模块-LMLPHP

SE模块的实现非常简单,只需要在卷积层后添加一个SE模块即可。

2、代码实例

下面是一个使用PyTorch实现的SE模块代码示例:

import torch.nn as nn

class SEModule(nn.Module):
    def __init__(self, in_channels, reduction_ratio=16):
        super(SEModule, self).__init__()
        self.avg_pool = nn.AdaptiveAvgPool2d(output_size=(1,1))
        self.fc1 = nn.Linear(in_channels, in_channels // reduction_ratio)
        self.fc2 = nn.Linear(in_channels // reduction_ratio, in_channels)
        self.relu = nn.ReLU(inplace=True)
        self.sigmoid = nn.Sigmoid()

    def forward(self, x):
        batch_size, channels, _, _ = x.size()
        y = self.avg_pool(x).view(batch_size, channels)
        y = self.fc1(y)
        y = self.relu(y)
        y = self.fc2(y)
        y = self.sigmoid(y).view(batch_size, channels, 1, 1)
        return x * y.expand_as(x)

3、实验结果

同时在ImageNet数据集上训练基线架构及其SENet对应架构。SENet表现出改进的优化特性,并且产生了持续的性能增益,在整个训练过程中都能保持一致。

YOLOv5/v7 添加注意力机制,30多种模块分析①,SE模块,SK模块-LMLPHP

在ImageNet验证集上,最先进的CNN单模型使用224×224和320×320/299×299尺寸进行剪裁后的错误率(%)。

4、应用示例

在YOLOv5中,SE模块可以很方便地添加到主干网络的每个残差块中。

具体操作步骤如下:

(1)在 models/yolo.py 文件中定义 SEModule 类,用于实现SE模块。

import torch.nn as nn

class SEModule(nn.Module):
    def __init__(self, in_channels, reduction_ratio=16):
        super(SEModule, self).__init__()
        self.avg_pool = nn.AdaptiveAvgPool2d(output_size=(1, 1))
        self.fc1 = nn.Linear(in_channels, in_channels // reduction_ratio)
        self.relu = nn.ReLU(inplace=True)
        self.fc2 = nn.Linear(in_channels // reduction_ratio, in_channels)
        self.sigmoid = nn.Sigmoid()

    def forward(self, x):
        batch_size, channels, height, width = x.size()
        y = self.avg_pool(x).view(batch_size, channels)
        y = self.fc1(y)
        y = self.relu(y)
        y = self.fc2(y)
        y = self.sigmoid(y).unsqueeze(2).unsqueeze(3)
        return x * y.expand_as(x)

(2)在 models/common.py 文件中定义 C3CBL 类时,引入 SEModule 类,并在需要的位置添加 SE 模块即可。

例如,在 C3 类的每个残差块的第一个卷积层后添加 SE 模块:

class C3(nn.Module):
    # ...
    def __init__(self, in_channels, out_channels, shortcut=True, e=0.5):
        # ...
        hidden_channels = int(out_channels * e)
        self.conv1 = CBL(in_channels, hidden_channels, 1, 1)
        self.conv2 = CBL(hidden_channels, out_channels, 3, 1)
        
        self.se = SEModule(out_channels)
        
        if shortcut and in_channels == out_channels:
            self.shortcut = nn.Identity()
        else:
            self.shortcut = CBL(in_channels, out_channels, 1, 1)
    # ...

通过以上操作,SE模块就被成功地添加到了YOLOv5中,可以在训练和测试时使用。

三、SK模块

1、SK模块的原理

YOLOv5/v7 添加注意力机制,30多种模块分析①,SE模块,SK模块-LMLPHP
SK(Selective Kernel)模块是一种基于注意力机制的模块,可以自适应地选择不同大小的卷积核来处理输入特征图。其主要思想是在局部感受野范围内引入一个自适应的通道注意力机制,以捕获特征之间的相关性,并且增强重要特征的表示。

具体来说,SK模块主要包含以下三个步骤:

  1. 全局池化:首先,将输入特征图通过全局平均池化层压缩为单个通道,得到一个全局的统计量,这个统计量可以代表整个特征图的信息。
  2. 分离变换:然后,将全局池化的输出通过两个全连接层,将通道数分别压缩为较小的数量,再将其恢复到原来的通道数,此时得到了一组代表特征显著程度的向量。
  3. 特征融合:最后,使用一组权重向量对不同大小的卷积核进行加权,将它们融合在一起处理输入特征图,从而增加网络的判别能力。

在第三步中,SK模块使用一组权重向量对不同大小的卷积核进行加权,具体地,假设输入特征图的大小为C×H×W,其中C、H和W分别代表通道数、高度和宽度。对于每个卷积核,SK模块都会生成一个权重向量,用于选择特征图中哪些通道最相关。在这里,SK模块通过一个自适应的通道注意力机制来生成权重向量,使得网络可以自动学习到不同通道之间的相关性以及它们对目标分类的贡献。

class SKConv(nn.Module):
    def __init__(self, c, r=16, stride=1, L=32):
        super(SKConv, self).__init__()
        # 计算分支数目M
        d = max(int(c/r), L)
        self.M = 2
        # 定义每个分支的卷积层和BN层
        self.conv = nn.ModuleList()
        for i in range(self.M):
            self.conv.append(nn.Sequential(
                nn.Conv2d(c, c, kernel_size=3+i*2, stride=stride, padding=1+i, groups=32, bias=False),
                nn.BatchNorm2d(c),
                nn.ReLU(inplace=True)
            ))
        # 定义全连接层,用于生成权重向量
        self.fcs = nn.Sequential(
            nn.Linear(c, d),
            nn.ReLU(inplace=True),
            nn.Linear(d, c)
        )
        # 定义softmax函数,用于归一化权重向量
        self.softmax = nn.Softmax(dim=1)

    def forward(self, x):
        batch_size = x.shape[0]
        feats = [conv(x).view(batch_size, -1, 1, 1) for conv in self.conv]  # 将每个分支的输出展开,并拼接在一起
        feats = torch.cat(feats, dim=2)
        feats = feats.mean(dim=2)  # 对各个通道的特征图取平均值
        feats = feats.view(batch_size, -1)  # 将所有通道的特征图组合成一个向量
        feats = self.fcs(feats).view(batch_size, -1, 1, 1)  # 用全连接层生成权重向量
        feats = self.softmax(feats)  # 对权重向量进行归一化
        feats = [feats[:, i].contiguous().view(batch_size, 1, x.size(2), x.size(3)) * conv(x) for i, conv in enumerate(self.conv)]  # 对输入特征图进行加权,然后再将它们融合在一起
        return sum(feats)  # 返回最终的输出结果

具体地,假设输入特征图的大小为C×H×W,其中C、H和W分别代表通道数、高度和宽度。SK模块的主要实现代码如下:

2、实验结果

YOLOv5/v7 添加注意力机制,30多种模块分析①,SE模块,SK模块-LMLPHP

在CIFAR数据集上的Top-1错误率(%,10次运行的平均值)。SENet-29和SKNet-29都基于ResNeXt-29,16×32d。

YOLOv5/v7 添加注意力机制,30多种模块分析①,SE模块,SK模块-LMLPHP

(a)和(b):两个随机抽样的图像的注意力结果,包含三种不同大小的目标(1.0x、1.5x和2.0x)。左上角:示例图像。左下角:SK 3 4中跨通道的5×5卷积核的注意力值。绘制的结果是16个连续通道的平均值,以方便查看。右侧:不同SK单元中5×5卷积核的注意力值减去3×3卷积核的注意力值。 ©:在ImageNet验证集的所有图像实例中平均的结果,也绘制了标准偏差。

3、应用示例

在YOLOv5中,SK模块主要应用于Backbone网络中的CSPDarknet53模块,以提高特征图的判别能力。

添加SK模块的步骤如下:

(1)在models/common.py中定义SKConv模块:

class SKConv(nn.Module):
    def __init__(self, c, r=16, stride=1, L=32):
        super(SKConv, self).__init__()
        # ...

    def forward(self, x):
        # ...
        return sum(feats)

(2)在models/yolo.py中使用SKConv模块。例如,在CSPBlock中使用SKConv的代码如下:

class CSPBlock(nn.Module):
    def __init__(self, in_channels, out_channels, num_blocks, shortcut=True, cardinality=1, bottleneck_width=64, sk_ratio=0.1):
        super(CSPBlock, self).__init__()
        # ...
        self.sk = SKConv(int(out_channels * sk_ratio), r=2, L=int(out_channels * sk_ratio)/2)  # 添加SKConv模块

    def forward(self, x):
        # ...
        x1 = self.cv1(x)
        x2 = self.cv2(x1)
        x2 = self.split_conv(x2)
        x3 = self.cv3(x1)
        x = torch.cat([x2, x3], dim=1)
        x = self.cv4(x)
        x = self.bn4(x)
        x = self.act(x)
        if self.sk_ratio > 0:  # 使用SKConv模块
            x = x + self.sk(x)
        if self.shortcut:
            x = x + inputs
        return self.act(x)

(3)在训练脚本train.py中设置使用SK模块。例如,可以将--sk参数设置为True启用SK模块:

python train.py --img 640 --batch 16 --epochs 50 --data coco.yaml --weights yolov5s.pt --cache --sk

参考论文:

  1. https://arxiv.org/pdf/1709.01507.pdf
  2. https://arxiv.org/pdf/1903.06586.pdf

YOLOv5/v7 添加注意力机制,30多种模块分析①,SE模块,SK模块-LMLPHP

🏆本文收录于,目标检测YOLO改进指南

本专栏均为全网独家首发,🚀内附代码,可直接使用,改进的方法均是2023年最近的模型、方法和注意力机制。每一篇都做了实验,并附有实验结果分析,模型对比。

🏆哪吒多年工作总结:Java学习路线总结,搬砖工逆袭Java架构师

🏆往期回顾:

1、YOLOv7如何提高目标检测的速度和精度,基于模型结构提高目标检测速度

2、YOLOv7如何提高目标检测的速度和精度,基于优化算法提高目标检测速度

3、YOLOv7如何提高目标检测的速度和精度,基于模型结构、数据增强提高目标检测速度

4、YOLOv5结合BiFPN,如何替换YOLOv5的Neck实现更强的检测能力?

5、YOLOv5结合BiFPN:BiFPN网络结构调整,BiFPN训练模型训练技巧

6、YOLOv7升级换代:EfficientNet骨干网络助力更精准目标检测

7、YOLOv5改进:引入DenseNet思想打造密集连接模块,彻底提升目标检测性能

06-07 08:03