您的位置:首页 > 游戏 > 手游 > 微信公众号第三方平台有哪些_网上买保险网站_新东方厨师学费价目表_宣传推广文案

微信公众号第三方平台有哪些_网上买保险网站_新东方厨师学费价目表_宣传推广文案

2025/3/15 22:52:20 来源:https://blog.csdn.net/crazyjinks/article/details/146104390  浏览:    关键词:微信公众号第三方平台有哪些_网上买保险网站_新东方厨师学费价目表_宣传推广文案
微信公众号第三方平台有哪些_网上买保险网站_新东方厨师学费价目表_宣传推广文案

深入理解RNN:循环神经网络的核心计算机制

RNN示意图
在这里插入图片描述

引言

在自然语言处理、时间序列预测、语音识别等涉及序列数据的领域,循环神经网络(RNN)一直扮演着核心角色。尽管近年来Transformer等架构逐渐成为主流,RNN的基本原理和思想依然对于理解深度学习处理序列数据的方式至关重要。本文将深入剖析RNN的核心计算机制,通过公式、代码和直观解释,帮助读者真正掌握这一经典算法的内在逻辑。

RNN的基本思想

传统前馈神经网络的主要局限在于:它无法处理序列数据中的时序依赖关系。每个输入被视为独立的个体,网络无法"记住"之前看到的信息。循环神经网络正是为了解决这一问题而设计的。

RNN的核心思想:通过在网络中引入循环连接,使当前时刻的输出不仅依赖于当前的输入,还依赖于之前时刻的"记忆"。这种设计使得RNN能够保持"状态",从而有效处理序列数据。

RNN的核心计算公式

RNN的计算过程可以用两个关键公式表示:

h t = t a n h ( W h ⋅ h t − 1 + W x ⋅ x t + b h ) h_t = tanh(W_h · h_{t-1} + W_x · x_t + b_h) ht=tanh(Whht1+Wxxt+bh)

先不要被吓到了,脑海中先想到CNN的y=kx+b , CNN里的线性变化。
然后想到y = tan ( kx+b ),引入非线性。
然后就是要引入上一步的信息,所以有了 W_h · h_{t-1} ,所以计算的这里,只是多了上一步的状态信息而已。就想着RNN相比CNN,其实就是多了一个缓冲区,会把上一步的隐藏层的值,加入到这里去计算,

y t = W y ⋅ h t + b y y_t = W_y · h_t + b_y yt=Wyht+by

这是最后输出当前值的步骤,y_t不参与后续的计算,是上一步的隐藏层的信息参与了计算。所以奥秘都在隐藏层里,最后这步的作用你可以理解为和CNN最后的FC层是一个意思

其中:

  • h t h_t ht 是当前时刻t的隐藏状态(即"记忆")
  • h t − 1 h_{t-1} ht1 是前一时刻的隐藏状态
  • x t x_t xt 是当前时刻的输入
  • y t y_t yt 是当前时刻的输出
  • W h W_h Wh, W x W_x Wx, W y W_y Wy 是权重矩阵
  • b h b_h bh, b y b_y by 是偏置项
  • t a n h tanh tanh 是激活函数(也可以使用其他函数如ReLU)

这两个公式理解了还是很简单,基本涵盖了RNN的全部精髓。让我们简要看看每个组成部分的意义。

公式详解:记忆与学习的数学表达

隐藏状态更新(第一个公式)

h t = t a n h ( W h ⋅ h t − 1 + W x ⋅ x t + b h ) h_t = tanh(W_h · h_{t-1} + W_x · x_t + b_h) ht=tanh(Whht1+Wxxt+bh)

这个公式描述了RNN如何更新其"记忆"。我们可以将其拆解为几个关键部分:

  1. 历史信息: W h ⋅ h t − 1 W_h · h_{t-1} Whht1
    • 这部分将前一时刻的隐藏状态 h t − 1 h_{t-1} ht1与权重矩阵 W h W_h Wh相乘
    • W h W_h Wh决定了保留多少历史信息,以及如何将这些信息与当前输入融合
    • 这正是RNN区别于传统神经网络的关键所在

这里可能不好理解,我们仍然可以把 h t − 1 h_{t-1} ht1看成一个变量x,哎,然后这个上一步的隐藏层的信息,我们是不是也要考虑下它如何影响下一步啊,因为每个数/词对下一个数/词的影响肯定是不同的,所以我们也给上一步的信息搞个 k x + b kx+b kx+b,也就是 W h ⋅ h t − 1 + b h ^ W_h · h_{t-1}+b_{\hat{h}} Whht1+bh^,然后放到公式里

h t = t a n h ( W h ⋅ h t − 1 + b h ^ + W x ⋅ x t + b h ) h_t = tanh(W_h · h_{t-1}+b_{\hat{h}}+ W_x · x_t + b_h) ht=tanh(Whht1+bh^+Wxxt+bh)

你一手常数项合并,咔,公式就出来了

h t = t a n h ( W h ⋅ h t − 1 + W x ⋅ x t + b h ) h_t = tanh(W_h · h_{t-1} + W_x · x_t + b_h) ht=tanh(Whht1+Wxxt+bh)

  1. 当前输入: W x ⋅ x t W_x · x_t Wxxt

    • 当前时刻的输入 x t x_t xt与权重矩阵 W x W_x Wx相乘
    • W x W_x Wx决定了网络如何解释当前输入的重要性
  2. 非线性变换: t a n h ( . . . ) tanh(...) tanh(...)

    • 将线性组合通过 t a n h tanh tanh激活函数进行非线性变换
    • t a n h tanh tanh将值压缩到[-1,1]范围,帮助稳定网络动态
    • 这种非线性是神经网络表达复杂函数的关键

输出层计算(第二个公式)

y t = W y ⋅ h t + b y y_t = W_y · h_t + b_y yt=Wyht+by

这个公式描述了RNN如何基于当前隐藏状态生成输出:

  1. 隐藏状态 h t h_t ht包含了直到当前时刻的所有相关信息的"摘要"
  2. 权重矩阵 W y W_y Wy将这个隐藏状态映射到所需的输出维度
  3. 输出 y t y_t yt可以是多种形式,取决于任务类型(如分类概率、预测值等)

没错,另一个 k x + b kx+b kx+b,不是吗?

RNN的维度分析

不用看,实践会告诉你答案,你会在你以后的代码实践中对维度有更深刻的理解

为了更好地理解RNN的计算过程,我们需要明确各个参数的维度:

假设:

  • 输入维度: x t ∈ R d i n x_t \in \mathbb{R}^{d_{in}} xtRdin
  • 隐藏状态维度: h t ∈ R d h h_t \in \mathbb{R}^{d_h} htRdh
  • 输出维度: y t ∈ R d o u t y_t \in \mathbb{R}^{d_{out}} ytRdout

则各权重矩阵的维度为:

  • W x ∈ R d h × d i n W_x \in \mathbb{R}^{d_h \times d_{in}} WxRdh×din
  • W h ∈ R d h × d h W_h \in \mathbb{R}^{d_h \times d_h} WhRdh×dh
  • W y ∈ R d o u t × d h W_y \in \mathbb{R}^{d_{out} \times d_h} WyRdout×dh
  • b h ∈ R d h b_h \in \mathbb{R}^{d_h} bhRdh
  • b y ∈ R d o u t b_y \in \mathbb{R}^{d_{out}} byRdout

这种维度设计确保了矩阵乘法的兼容性,同时也反映了数据在网络中的流动方式。

RNN的直观解释

抛开前面的数学公式,我们可以用更直觉的方式理解RNN的工作原理:

  1. 记忆机制:想象RNN有一个"记事本"(隐藏状态),它会在每个时间步更新这个记事本
  2. 选择性记忆:不是所有信息都同等重要,权重矩阵决定记住什么、忘记什么
  3. 信息混合:RNN将之前的记忆与新的观察结合起来,产生更新的理解
  4. 输出决策:基于当前的"记忆状态",RNN做出当前时刻的判断或预测

Python实现:手写一个简单RNN

让我们通过Python代码实现一个简单的RNN,以更好地理解其计算过程:

import numpy as npclass SimpleRNN:def __init__(self, input_size, hidden_size, output_size):"""初始化RNN参数"""# 初始化权重矩阵(使用随机值)self.Wx = np.random.randn(hidden_size, input_size) * 0.01  # 输入到隐藏self.Wh = np.random.randn(hidden_size, hidden_size) * 0.01  # 隐藏到隐藏self.Wy = np.random.randn(output_size, hidden_size) * 0.01  # 隐藏到输出# 初始化偏置项self.bh = np.zeros((hidden_size, 1))  # 隐藏层偏置self.by = np.zeros((output_size, 1))  # 输出层偏置# 保存尺寸信息self.input_size = input_sizeself.hidden_size = hidden_sizeself.output_size = output_sizedef forward(self, x_sequence, h0=None):"""前向传播过程"""# x_sequence形状: (seq_length, input_size, 1)seq_length = len(x_sequence)# 如果没有提供初始隐藏状态,则初始化为零if h0 is None:h0 = np.zeros((self.hidden_size, 1))# 保存所有时间步的隐藏状态和输出(用于反向传播)h = np.zeros((seq_length+1, self.hidden_size, 1))y = np.zeros((seq_length, self.output_size, 1))h[0] = h0  # 设置初始隐藏状态# 按时间步前向传播for t in range(seq_length):# 更新隐藏状态: h_t = tanh(W_h·h_{t-1} + W_x·x_t + b_h)h[t+1] = np.tanh(np.dot(self.Wh, h[t]) + np.dot(self.Wx, x_sequence[t]) + self.bh)# 计算输出: y_t = W_y·h_t + b_yy[t] = np.dot(self.Wy, h[t+1]) + self.byreturn y, h[1:]  # 返回所有输出和隐藏状态def predict(self, x_sequence):"""使用模型进行预测"""y, _ = self.forward(x_sequence)return y# 示例:如何使用这个RNN
if __name__ == "__main__":# 创建一个输入维度为3,隐藏层大小为5,输出维度为2的RNNrnn = SimpleRNN(input_size=3, hidden_size=5, output_size=2)# 创建一个序列数据:3个时间步,每步是一个3维向量seq_data = [np.array([[0.1], [0.2], [0.3]]),  # x_1np.array([[0.2], [0.3], [0.4]]),  # x_2np.array([[0.3], [0.4], [0.5]])   # x_3]# 前向传播outputs, hidden_states = rnn.forward(seq_data)print("输出序列形状:", len(outputs), "x", outputs[0].shape)print("第一个时间步的输出:\n", outputs[0])print("最后一个时间步的隐藏状态:\n", hidden_states[-1])

RNN的缺点与改进版本

尽管RNN的设计非常优雅,但它存在一些严重的局限性:

  1. 梯度消失/爆炸问题:在长序列上,梯度要么趋近于零(无法学习),要么爆炸(不稳定)
  2. 长期依赖问题:基本RNN难以捕捉长距离的依赖关系
  3. 信息覆盖:新信息可能完全覆盖旧信息,导致"遗忘"重要的历史信息

为了解决这些问题,研究者提出了多种RNN的变体:

  1. LSTM (长短期记忆网络):引入了"门"机制,可以选择性地记住或忘记信息
  2. GRU (门控循环单元):LSTM的简化版本,性能相近但计算更高效
  3. 双向RNN:同时考虑过去和未来的信息,适用于有完整序列的场景

这些改进版本的核心计算公式更为复杂,后面有机会我们都摸一下,但基本思想与原始RNN相同:通过更新隐藏状态来保持对序列的"记忆"。

RNN在实际项目中的应用

RNN及其变体广泛应用于各种序列处理任务,至今RNN都在时序任务上仍有一席之地,但是那是另一个故事了。

总结:RNN的核心要点

  1. RNN的本质是一种带有循环连接的神经网络,使其能够处理序列数据
  2. 核心计算公式体现了RNN如何结合历史信息和当前输入
  3. 隐藏状态是RNN的"记忆",它随着序列处理不断更新
  4. 权重共享是RNN的关键特性,使其能够处理任意长度的序列
  5. 梯度问题是基本RNN的主要缺陷,导致了LSTM等改进版本的出现

尽管Transformer等新型架构在许多任务上已经超越了RNN,理解RNN的核心计算机制仍然是掌握序列模型的重要基础。RNN简洁的设计和直观的计算过程,体现了序列学习的基本原理,这些原理在更复杂的模型中依然适用。

哎,我上来就是一手 k x + b kx+b kx+b

参考资源

  1. Goodfellow, I., Bengio, Y., & Courville, A. (2016). Deep Learning. MIT Press.
  2. Karpathy, A. The Unreasonable Effectiveness of Recurrent Neural Networks. http://karpathy.github.io/2015/05/21/rnn-effectiveness/
  3. Olah, C. Understanding LSTM Networks. http://colah.github.io/posts/2015-08-Understanding-LSTMs/

关于作者:是个逗比

版权声明:

本网仅为发布的内容提供存储空间,不对发表、转载的内容提供任何形式的保证。凡本网注明“来源:XXX网络”的作品,均转载自其它媒体,著作权归作者所有,商业转载请联系作者获得授权,非商业转载请注明出处。

我们尊重并感谢每一位作者,均已注明文章来源和作者。如因作品内容、版权或其它问题,请及时与我们联系,联系邮箱:809451989@qq.com,投稿邮箱:809451989@qq.com