您的位置:首页 > 财经 > 产业 > 阿里云企业网站备案流程_百度站内搜索提升关键词排名_广州市疫情最新_hao123上网从这里开始官方

阿里云企业网站备案流程_百度站内搜索提升关键词排名_广州市疫情最新_hao123上网从这里开始官方

2024/11/17 20:03:53 来源:https://blog.csdn.net/qq_53569667/article/details/142663510  浏览:    关键词:阿里云企业网站备案流程_百度站内搜索提升关键词排名_广州市疫情最新_hao123上网从这里开始官方
阿里云企业网站备案流程_百度站内搜索提升关键词排名_广州市疫情最新_hao123上网从这里开始官方
Course2-Week2:
https://github.com/kaieye/2022-Machine-Learning-Specialization/tree/main/Advanced%20Learning%20Algorithms/week2

机器学习笔记(六)

  • 1️⃣ReLU(Rectified Linear Unit)
  • 2️⃣多分类问题
  • 3️⃣Softmax
  • 4️⃣Adam
  • 5️⃣ 反向传播(Back propagation)

1️⃣ReLU(Rectified Linear Unit)

✨ReLU function: a = g ( z ) = m a x ( 0 , z ) a =g(z)= max(0, z) a=g(z)=max(0,z)

ReLU 激活函数与线性和 Sigmoid 激活函数对比,三个都是常用的激活函数:

在这里插入图片描述

🎈在此示例中的派生的 “awareness” 特征是具有连续的值范围,Sigmoid 最适合 0/1 的二分类情况。而 ReLU 函数提供连续的线性关系,并且有一个 "off" 范围,可以关闭 z < 0 z < 0 z<0 的范围,让其输出 0,"off" 功能使 ReLU 成为非线性的激活函数。

在这里插入图片描述

🎈在输出层中,如果是二分类问题选择 Sigmoid 函数作为激活函数是个不错的选择;而对于线性输出(既有负值也有正值)可以选择线性函数作为激活函数;如果对于回归问题但是输出只有正值(如房屋价格),则选择 ReLU 函数作为激活函数就相当合适了。
🤓在输出层中激活函数的选取可以去考虑预测的 y ^ \hat y y^ 是个什么样的值来进行选取。

在这里插入图片描述

🎈在隐藏层中,其实除了二分类问题使用 Sigmoid 激活函数,基本上都使用 ReLU 激活函数。ReLU 相较于 Sigmoid 计算速度更快,因为只需要计算 m a x ( 0 , z ) max(0, z) max(0,z),而 Sigmoid 需要取幂、取负,相除等等,计算效率自然就低了;对于梯度下降,Sigmoid 在多个地方逐渐变平坦,就导致了 J ( w , b ) J(w,b) J(w,b) 的函数也有多个平坦的地方,难以到全局最小值,并且偏导数很小会使梯度下降的速度缓慢,而 ReLU 梯度下降会更快更好

在这里插入图片描述


✨选取激活函数方式的概括

在这里插入图片描述


🧐为什么神经网络需要激活函数?

🎈如果在神经网络中不使用激活函数:
在这里插入图片描述
🤓就会出现了将前一个线性回归得出的输出,作为下一个线性回归的输入去计算,最终其实就是线性函数的线性组合,则还是一个线性函数,这样的话就没有必要去写这么个多层的神经网络了,本质就是一个一层的输入输出映射,根本就不需要神经网络。

2️⃣多分类问题

多分类问题:目标值 y y y 的值多于 2 个的情况。
在这里插入图片描述
使用 P ( y = i ∣ x ⃗ ) P(y=i \mid \vec x) P(y=ix ) 表示在输入 x ⃗ \vec x x 上分类为第 i i i 种情况的概率。

3️⃣Softmax

Softmax 是 Sigmoid 的一般形式,用于处理多分类问题,由于我们已经学过了逻辑回归函数 Sigmoid,将两者对比来学习 Softmax 函数。

在这里插入图片描述

🤓由此可以看出 Sigmoid 是对于分类问题只有两个值 P ( y = 0 ∣ x ⃗ ) P(y=0 \mid \vec x) P(y=0x ) P ( y = 1 ∣ x ⃗ ) P(y=1 \mid \vec x) P(y=1x ) 时的特殊 Softmax 函数,也可以说 Softmax 回归模型是逻辑回归的泛化。

🎈再对比一下两者的损失函数:

在这里插入图片描述


🎗️神经网络的 Softmax 输出

🧐在具有 Softmax 输出的 softmax 回归和神经网络中,都会生成 N 个输出,并选择 1 个输出作为预测类别。在这两种情况下,向量 z z z 都是由应用于 softmax 函数的线性函数生成的。softmax 函数转换为概率分布,应用 softmax 后,每个输出将介于 0 和 1 之间,并且输出将加到 1,以便可以将其解释为概率。

在这里插入图片描述

4️⃣Adam

Adam: Adaptive Moment estimation

🤓 Adam 算法是梯度下降的优化算法,相较于原始的梯度下降算法,Adam 算法可以自适应学习率,让梯度下降的过程更快并且更加精准。当学习率过小时,梯度下降的过程缓慢,Adam 会增大学习率去加快速度;当学习率过大时,梯度下降并不精准,Adam 会减小学习率去更好的执行梯度下降。

在这里插入图片描述

✨代码实现:

在这里插入图片描述

5️⃣ 反向传播(Back propagation)

🎈顺序计算各个中间参数的过程为前向传播,而反向通过前面求出的参数的值或偏导值再求出偏导则是后向传播。

在这里插入图片描述

🤓反向传播可以很好的提高计算效率,对于 N N N 个这样的节点和 P P P 个参数的情况,通过计算图的反向传播可以只花费 N + P N + P N+P 步求出。如果普通的计算通过求出 N N N 个节点值再求每个 P P P 则要花费 N × P N × P N×P 步。可见后向传播的计算效率显著提高。

在这里插入图片描述

版权声明:

本网仅为发布的内容提供存储空间,不对发表、转载的内容提供任何形式的保证。凡本网注明“来源:XXX网络”的作品,均转载自其它媒体,著作权归作者所有,商业转载请联系作者获得授权,非商业转载请注明出处。

我们尊重并感谢每一位作者,均已注明文章来源和作者。如因作品内容、版权或其它问题,请及时与我们联系,联系邮箱:809451989@qq.com,投稿邮箱:809451989@qq.com