您的位置:首页 > 教育 > 培训 > 软文推广案例500字_揭阳网站制作套餐_win7怎么优化最流畅_网站排名优化专业定制

软文推广案例500字_揭阳网站制作套餐_win7怎么优化最流畅_网站排名优化专业定制

2025/4/16 3:53:17 来源:https://blog.csdn.net/llovewuzhengzi/article/details/144804792  浏览:    关键词:软文推广案例500字_揭阳网站制作套餐_win7怎么优化最流畅_网站排名优化专业定制
软文推广案例500字_揭阳网站制作套餐_win7怎么优化最流畅_网站排名优化专业定制

文章目录

  • 感知机
    • 工作流程
  • 神经网络
    • 区别
    • 各种各样的神经网络
  • 激活函数
    • 激活函数类型
      • Sigmoid 函数
      • ReLU函数
      • Leaky ReLU 函数
      • Tanh 函数
  • 正向传播
  • 反向传播
  • 梯度消失(gradient vanish)
    • 如何解决
  • Dropout
    • 使用
  • PyTorch实战神经网络算法(手写MNIST数字识别)
    • view
    • softmax和log-softmax
    • cross-entropy loss
    • nll_loss
    • batch size底层运算机制

感知机

感知机是神经网络的起点
在这里插入图片描述
在这里插入图片描述

工作流程

在感知机模型中,step function起到了一个 分类决策 的作用。

在这里插入图片描述
学习调整权重
在这里插入图片描述

神经网络

在这里插入图片描述

区别

无需自己选择特征,传统感知机人工手动提取选择特征,深度学习特征提取的过程是自动完成的。只需要输入各种数据即可
在这里插入图片描述
提取特征可以通过最后输出层的前一层隐藏层的输出特征可以看出来,与一开始的输入层的特征不一样
在这里插入图片描述
可以用作多分类
在这里插入图片描述
或者目标检测
在这里插入图片描述

各种各样的神经网络

DNN 深度神经网络(ANN 人工神经网络 /MLP 多层感知机)、CNN、RNN
在这里插入图片描述
在这里插入图片描述

激活函数

在这里插入图片描述
激活函数是一种非线性函数,它可以把输入的数据映射到一个新的输出值,这个输出值可以在下一层被用作输入。
在这里插入图片描述

在这里插入图片描述

激活函数类型

在这里插入图片描述

Sigmoid 函数

在这里插入图片描述
在这里插入图片描述

ReLU函数

在这里插入图片描述

Leaky ReLU 函数

在这里插入图片描述

Tanh 函数

虽然两者都是非线性的,但 Tanh 函数在输入接近零时提供了更强烈的非线性映射,这是因为其曲线在这个区域内更为陡峭。这使得它能够在某些任务中捕捉到更复杂的模式。
在这里插入图片描述

正向传播

在这里插入图片描述
在这里插入图片描述

反向传播

在这里插入图片描述
负责多少就是对损失值影响多少,就是梯度
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

梯度消失(gradient vanish)

在这里插入图片描述
在这里插入图片描述

如何解决

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
Sigmoid函数导函数区间在0到0.25之间,Tanh函数导函数区间在0到1之间,它们输出的数值一直很小。
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

Dropout

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
消除特征间的依赖关系:不依赖其他特征通过一部分学习的特征就能判断

使用

深度学习框架中会封装有 Dropout 层,这样需要将哪一层输出随机的丢弃一些,那么就在哪一层后面跟 Dropout 层即可。

自行实现如下

p = 0.5  # 激活的概率。p越高,Dropout 越少。
def train_step(X):""" X 是输入数据 """# 第 1 层的前向传播H1 = np.maximum(0, np.dot(W1, X) + b1)  # ReLU 激活U1 = np.random.rand(*H1.shape) < p  # 随机生成 Dropout maskH1 *= U1  # 应用 Dropout,丢弃一些神经元# 第 2 层的前向传播H2 = np.maximum(0, np.dot(W2, H1) + b2)  # ReLU 激活U2 = np.random.rand(*H2.shape) < p  # 随机生成 Dropout maskH2 *= U2  # 应用 Dropout,丢弃一些神经元# 输出层out = np.dot(W3, H2) + b3  # 不对输出层应用 Dropoutreturn out

在这里插入图片描述
在这里插入图片描述

PyTorch实战神经网络算法(手写MNIST数字识别)

https://pytorch.org/

inputs.view(-1, 28*28)

view

在这里插入图片描述

softmax和log-softmax

在这里插入图片描述

cross-entropy loss

在这里插入图片描述

nll_loss

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

batch size底层运算机制

https://blog.csdn.net/weixin_44986037/article/details/144216069

版权声明:

本网仅为发布的内容提供存储空间,不对发表、转载的内容提供任何形式的保证。凡本网注明“来源:XXX网络”的作品,均转载自其它媒体,著作权归作者所有,商业转载请联系作者获得授权,非商业转载请注明出处。

我们尊重并感谢每一位作者,均已注明文章来源和作者。如因作品内容、版权或其它问题,请及时与我们联系,联系邮箱:809451989@qq.com,投稿邮箱:809451989@qq.com