一、TripletAttention论文
论文地址: 2010.03045.pdf (arxiv.org)
二、TripletAttention结构
对于输入张量,TripletAttention通过旋转操作和残差变换建立维度间依赖关系,并以可忽略的计算开销对通道间和空间信息进行编码。TripletAttention通过几乎无参数的特点来建模通道注意和空间注意。如下图所示,TripletAttention由三个平行的Branch组成,其中前两个分支负责捕获通道C和空间W或H之间的跨维度交互,最后一个最后一个Branch类似于CBAM(Convolutional Block Attention Module)结构,用于构建Spatial Attention。最终3个Branch的输出使用平均进行聚合。