本文引入了层聚合的概念来描述如何重用来自前一层的信息以更好地提取当前层的特征。典型的例子是DenseNet。然而,在密集连接的阶段内,网络参数的数量相对于层的数量二次增长。这些高度冗余的参数可能多次提取类似的特征,并限制存储新信息的通道数量。
因此本文提出了一种参数少得多的加权递归层聚合(RLA)模块。具体来说,我们使用循环连接来代替密集连接,并实现独立于网络深度的参数计数。从经验上看,RLA模块在计算上是轻量化的,只会稍微增加模型参数和计算成本。
注意机制主要以空间注意和通道注意的形式被纳入CNN。成功的应用包括图像字幕[57,5]、视觉问答[62]、图像分类[52,16]、语义分割[34]、人脸验证[6]和视频帧插值[9]。通道注意力的一个杰出设计是挤压和激励(SE)块
总结:
本文提出的RLA是和SE一样的模块,用来进行通道关注的
应用在resnet50上提升1个点,并且还会在原有基础上增加少部分参数量