一、本文介绍
本文记录的是利用Conv2Former
优化YOLOv11
的目标检测网络模型。Transformer
通过自注意力机制能够获取全局信息,但资源占用较大。卷积操作资源占用较少,但只能根据卷积核的大小获取局部信息。Conv2Former
通过卷积调制操作简化了自注意力机制,更有效地利用了大核卷积,在视觉识别任务中表现出较好的性能。
专栏目录:YOLOv11改进目录一览 | 涉及卷积层、轻量化、注意力、损失函数、Backbone、SPPF、Neck、检测头等全方位改进
专栏地址:YOLOv11改进专栏——以发表论文的角度,快速准确的找到有效涨点的创新点!
文章目录
- 一、本文介绍
- 二、Conv2Former介绍
- 2.1 原理
- 2.1.1 整体架构
- 2.1.1 卷积调制块
- 2.2 优势
- 三、Conv2Former的实现代码
- 四、创新模块
- 4.1 改进点1
- 4.2 改进点2⭐
- 五、添加步骤
- 5.1 修改ultralytics/nn/modules/block.py
- 5.2 修改ultralytics/nn/modules/__init__.py
- 5.3 修改ultralytics/nn/modules/tasks.py
- 六、yaml模型文件
- 6.1 模型改进版本一
- 6.2 模型改进版本二⭐