您的位置:首页 > 娱乐 > 八卦 > pytorch笔记:BatchNorm1d

pytorch笔记:BatchNorm1d

2024/10/6 22:19:50 来源:https://blog.csdn.net/qq_40206371/article/details/140792025  浏览:    关键词:pytorch笔记:BatchNorm1d
torch.nn.BatchNorm1d(num_features, eps=1e-05, momentum=0.1, affine=True, track_running_stats=True, device=None, dtype=None)

对2D或3D输入应用批量归一化

  • 其中,均值和标准差是在小批量上按维度计算的,γ和 β 是可学习的参数向量,大小为 C(C 为输入的特征数或通道数)。
  • 默认情况下,γ 的元素被设置为 1,β的元素被设置为 0

输入参数:

num_features输入的特征数或通道数 C
eps为数值稳定性添加到分母的值。默认值:1e-5
momentum

用于 running_mean 和 running_var 计算的值。

可设置为 None,表示累积移动平均(即简单平均)。默认值:0.1

affine当设置为 True 时,此模块具有可学习的仿射参数。默认值:True

输入输出形状

  • 输入:(N, C) 或 (N, C, L),其中 N 是批量大小,C 是特征数或通道数,L 是序列长度
  • 输出:(N, C) 或 (N, C, L)(与输入形状相同)

版权声明:

本网仅为发布的内容提供存储空间,不对发表、转载的内容提供任何形式的保证。凡本网注明“来源:XXX网络”的作品,均转载自其它媒体,著作权归作者所有,商业转载请联系作者获得授权,非商业转载请注明出处。

我们尊重并感谢每一位作者,均已注明文章来源和作者。如因作品内容、版权或其它问题,请及时与我们联系,联系邮箱:809451989@qq.com,投稿邮箱:809451989@qq.com