💡💡💡本文独家改进:为了降低计算量,构建了Multi-Dconv Head Transposed Attention,不在像素维度计算 attention,而是在通道维度计算。过程很简单,先用 point-wise conv 和 dconv 预处理,在通道维计算 atteniton

它有助于进行局部与非局部相关像素聚合,可以高效的进行高分辨率图像处理;

MDTA |   亲测在多个数据集能够实现大幅涨点

💡💡💡Yolov5/Yolov7魔术师,独家首发创新(原创),适用于Yolov5、Yolov7、Yolov8等各个Yolo系列,专栏文章提供每一步步骤和源码,轻松带你上手魔改网络

💡💡💡重点:通过本专栏的阅读,后续你也可以自己魔改网络,在网络不同位置(Backbone、head、detect、loss等)进行魔改,实现创新!!!

专栏介绍:

Yolov5/Yolov7魔术师_AI小怪兽的博客-CSDN博客

✨✨✨原创魔改网络、复现前沿论文,组合优化创新

&

09-26 10:12