您的位置:首页 > 财经 > 金融 > 口碑营销服务_国外贸易网站_子域名网址查询_营销宣传图片

口碑营销服务_国外贸易网站_子域名网址查询_营销宣传图片

2025/3/12 18:48:15 来源:https://blog.csdn.net/qq_40938217/article/details/146024965  浏览:    关键词:口碑营销服务_国外贸易网站_子域名网址查询_营销宣传图片
口碑营销服务_国外贸易网站_子域名网址查询_营销宣传图片

BiFPN 采用双向特征融合,让 P3 和 P4 不仅能获取来自 Backbone 的信息,还可以有效吸收 P5 的高级语义特征,增强小目标的判别能力
通过 加权特征融合(Weighted Feature Fusion),BiFPN 让 P3 层能够 自动调整不同特征层的贡献,避免直接相加造成的特征信息失真

Abstract

模型效率在计算机视觉中变得越来越重要。 在本文中,我们系统地研究了对象检测的神经网络体系结构设计选择,并提出了一些关键优化以提高效率。 首先,我们提出了一个加权双向特征金字塔网络(BIFPN),它允许简单且快速的多尺度特征融合; 其次,我们提出了一种复合缩放方法,该方法均匀地缩放了所有骨干,功能网络和框/类预测网络的分辨率,深度和宽度。 基于这些优化和更好的骨干,我们开发了一个新的对象探测器家族,称为EfficientDet,该家族在广泛的资源约束范围内始终如一地提高效率要比先前的更好。代码可在automl/efficientdet at master google/automl

多尺度特征表示

对象检测的主要困难之一是有效地表示和处理多尺度特征。作为开创性的作品之一,特征金字塔网络(FPN)[23]提出了一种自上而下的途径,以结合多尺度功能。遵循此想法,PANet [26]在FPN顶部添加了一个额外的自下而上路径聚合网络。STDL [43]提出了一个比例转移模块来利用跨尺度功能。 M2DET [42]为融合多尺度功能提出了一个U形模块,而G-FRNET [2]引入了用于控制跨特征信息流的门单元。NAS-FPN [10]利用神经体系结构搜索自动设计特征网络拓扑。 尽管NAS-FPN在搜索过程中需要成千上万的GPU小时,尽管它可以实现更好的性能,并且由此产生的功能网络是不规则的,因此很难解释。 在本文中,我们旨在以更直观和原则性的方式优化多尺度功能融合。

BiFPN

传统 FPN 存在的问题

FPN(Feature Pyramid Network)在目标检测任务中广泛用于多尺度特征融合,但存在如下缺陷:

  1. 单向信息流限制:传统 FPN 采用 自上而下(top-down) 的信息传递方式,这意味着低层的高分辨率特征不能直接影响高层的低分辨率特征,而高层特征的信息也不能直接向底层回流。
  2. 特征加权不均衡:FPN 直接对不同层次的特征进行相加,但不同分辨率的特征信息贡献程度不同,直接相加可能导致某些层次的特征被过度强化或削弱。
  3. 计算效率低:NAS-FPN(Neural Architecture Search-based FPN)虽然可以自动搜索最优的 FPN 结构,但搜索过程计算开销巨大,并且最终生成的架构复杂难以解释。

BiFPN 的优化策略

BiFPN(加权双向特征金字塔网络) 通过以下方式改进 FPN:

  • 引入双向信息流(Bidirectional Fusion):不仅采用传统的 自上而下(top-down) 信息流,还增加了 自下而上(bottom-up) 的路径,增强不同层级特征的交互。
  • 删除单输入节点(Removing Nodes with One Input):对于仅有一个输入的特征节点,直接删除,以减少计算冗余。
  • 增加跨尺度残差连接(Extra Cross-scale Residual Connections):如果某个特征层的输入和输出在相同尺度上,增加额外的连接,以增强信息流动。
  • 加权特征融合(Weighted Feature Fusion):为每个融合的特征分配一个 可学习的权重参数,让网络自动学习每个层级特征的重要性,而不是简单求和。
    在这里插入图片描述
  • 传统FPN计算方式:
    在这里插入图片描述
    分别表示l层的输出特征、输入特征和l+1层采样使保持尺度不变,这样简单相加没有考虑不同尺度特征的重要性。

跨尺度连接

  1. 首先,我们删除只有一个输入边缘的节点。 我们的直觉很简单:如果一个节点只有一个没有特征融合的输入边缘,那么它将对旨在融合不同功能的特征网络的贡献更少。(如果一个节点只是负责处理上一层特征不进行任何融合就直接去掉)
  2. 其次,如果它们处于同一级别,则从原始输入节点中添加了一个额外的优势,以便在不增加成本的情况下融合更多功能;(类似于残差连接)
  3. 第三,与PANet [26]不同,只有一个自上而下和一个自下而上的路径,我们将每个双向(自上而下和自下而上)路径视为一个特征网络层,并多次重复相同的层以启用更多的高级特征融合。
  • BiFPN的加强特征融合
  • 在这里插入图片描述

EfficientDet 的复合缩放策略

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
主要是在网络深度、分辨率、网络宽度等方面的一些策略,不过多介绍。

BiFPN的代码实现

class BiFPN_Concat(nn.Module):def __init__(self, dimension=1):super(BiFPN_Concat2, self).__init__()self.d = dimensionself.w = nn.Parameter(torch.ones(2, dtype=torch.float32), requires_grad=True)self.epsilon = 0.0001def forward(self, x):w = self.wweight = w / (torch.sum(w, dim=0) + self.epsilon)  # 将权重进行归一化# Fast normalized fusionx = [weight[0] * x[0], weight[1] * x[1]]return torch.cat(x, self.d)

版权声明:

本网仅为发布的内容提供存储空间,不对发表、转载的内容提供任何形式的保证。凡本网注明“来源:XXX网络”的作品,均转载自其它媒体,著作权归作者所有,商业转载请联系作者获得授权,非商业转载请注明出处。

我们尊重并感谢每一位作者,均已注明文章来源和作者。如因作品内容、版权或其它问题,请及时与我们联系,联系邮箱:809451989@qq.com,投稿邮箱:809451989@qq.com