1.Focal modulation networks介绍

涨点神器:FocalNet焦点调制注意力模块引入Yolov5/Yolov7,暴力涨点-LMLPHP

论文:https://arxiv.org/pdf/2203.11926.pdf

        在Transformers中,自注意力(SA)可以说是其成功的关键,它支持依赖于输入的全局交互。但尽管有这些优势,由于自注意力二次的计算复杂度效率较低,尤其是对于高分辨率输入。因此,作者提出了focal modulation network(FocalNet)使用焦点调制模块来取代自注意力。

         如下图所示:在前两者中,绿色和紫色箭头分别代表注意力交互和基于查询的聚合,但是都存在一个缺陷,即:均需要涉及大量的交互和聚合操作。而Focal Modulation计算过程得到大量简化。

涨点神器:FocalNet焦点调制注意力模块引入Yolov5/Yolov7,暴力涨点-LMLPHP

 算法流程图:

涨点神器:FocalNet焦点调制注意力模块引入Yolov5/Yolov7,暴力涨点-LMLPHP

 不同level的特征可以注意到图像中不同的区域,包括图像局部特征区域和全局空间信息:

04-29 12:03