您的位置:首页 > 健康 > 养生 > 网站制作介绍_自己如何做微信小程序_网站建设策划书_seo推广的公司

网站制作介绍_自己如何做微信小程序_网站建设策划书_seo推广的公司

2024/12/23 10:41:58 来源:https://blog.csdn.net/scdifsn/article/details/142916268  浏览:    关键词:网站制作介绍_自己如何做微信小程序_网站建设策划书_seo推广的公司
网站制作介绍_自己如何做微信小程序_网站建设策划书_seo推广的公司

本节课程地址:59 双向循环神经网络【动手学深度学习v2】_哔哩哔哩_bilibili

本节教材地址:9.4. 双向循环神经网络 — 动手学深度学习 2.0.0 documentation (d2l.ai)

本节开源代码:...>d2l-zh>pytorch>chapter_multilayer-perceptrons>bi-rnn.ipynb


双向循环神经网络

在序列学习中,我们以往假设的目标是: 在给定观测的情况下 (例如,在时间序列的上下文中或在语言模型的上下文中), 对下一个输出进行建模。 虽然这是一个典型情景,但不是唯一的。 还可能发生什么其它的情况呢? 我们考虑以下三个在文本序列中填空的任务。

  • ___
  • ___饿了。
  • ___饿了,我可以吃半头猪。

根据可获得的信息量,我们可以用不同的词填空, 如“很高兴”("happy")、“不”("not")和“非常”("very")。 很明显,每个短语的“下文”传达了重要信息(如果有的话), 而这些信息关乎到选择哪个词来填空, 所以无法利用这一点的序列模型将在相关任务上表现不佳。 例如,如果要做好命名实体识别 (例如,识别“Green”指的是“格林先生”还是绿色), 不同长度的上下文范围重要性是相同的。 为了获得一些解决问题的灵感,让我们先迂回到概率图模型。

隐马尔可夫模型中的动态规划

这一小节是用来说明动态规划问题的, 具体的技术细节对于理解深度学习模型并不重要, 但它有助于我们思考为什么要使用深度学习, 以及为什么要选择特定的架构。

如果我们想用概率图模型来解决这个问题, 可以设计一个隐变量模型: 在任意时间步 t ,假设存在某个隐变量 h_t , 通过概率 P(x_t \mid h_t) 控制我们观测到的 x_t 。 此外,任何 h_t \to h_{t+1} 转移 都是由一些状态转移概率 P(h_{t+1} \mid h_{t}) 给出。 这个概率图模型就是一个隐马尔可夫模型(hidden Markov model,HMM), 如 图9.4.1 所示。

因此,对于有 T 个观测值的序列, 我们在观测状态和隐状态上具有以下联合概率分布:

P(x_1, \ldots, x_T, h_1, \ldots, h_T) = \prod_{t=1}^T P(h_t \mid h_{t-1}) P(x_t \mid h_t), \text{ where } P(h_1 \mid h_0) = P(h_1).(9.4.1)

(9.4.1)说明了整个序列的联合概率可以通过隐状态之间转移概率 P(h_t \mid h_{t-1}) 和给定隐状态的观测概率 P(x_t \mid h_t) 的乘积来计算。 P(h_1) 是序列开始时隐状态的先验概率。

现在,假设我们观测到所有的 xi ,除了 xj , 并且我们的目标是计算 P(x_j \mid x_{-j}) , 其中 x_{-j} = (x_1, \ldots, x_{j-1}, x_{j+1}, \ldots, x_{T}) 。 由于 P(x_j \mid x_{-j}) 中没有隐变量, 因此我们考虑对 h_1, \ldots, h_T 选择构成的 所有可能的组合进行求和。 如果任何 h_i 可以接受 k 个不同的值(有限的状态数), 这意味着我们需要对 k^T 个项求和, 这个任务显然难于登天。 幸运的是,有个巧妙的解决方案:动态规划(dynamic programming)。

要了解动态规划的工作方式, 我们考虑对隐变量 h_1, \ldots, h_T 的依次求和。 根据 (9.4.1),将得出:

\begin{aligned} &P(x_1, \ldots, x_T) \\ =& \sum_{h_1, \ldots, h_T} P(x_1, \ldots, x_T, h_1, \ldots, h_T) \\ =& \sum_{h_1, \ldots, h_T} \prod_{t=1}^T P(h_t \mid h_{t-1}) P(x_t \mid h_t) \\ =& \sum_{h_2, \ldots, h_T} \underbrace{\left[\sum_{h_1} P(h_1) P(x_1 \mid h_1) P(h_2 \mid h_1)\right]}_{\pi_2(h_2) \stackrel{\mathrm{def}}{=}} P(x_2 \mid h_2) \prod_{t=3}^T P(h_t \mid h_{t-1}) P(x_t \mid h_t) \\ =& \sum_{h_3, \ldots, h_T} \underbrace{\left[\sum_{h_2} \pi_2(h_2) P(x_2 \mid h_2) P(h_3 \mid h_2)\right]}_{\pi_3(h_3)\stackrel{\mathrm{def}}{=}} P(x_3 \mid h_3) \prod_{t=4}^T P(h_t \mid h_{t-1}) P(x_t \mid h_t)\\ =& \dots \\ =& \sum_{h_T} \pi_T(h_T) P(x_T \mid h_T). \end{aligned}

(9.4.2)

通常,我们将前向递归(forward recursion)写为:

\pi_{t+1}(h_{t+1}) = \sum_{h_t} \pi_t(h_t) P(x_t \mid h_t) P(h_{t+1} \mid h_t). (9.4.3)

前向递归 \pi_{t+1}(h_{t+1}) 是在给定观测序列直到时间 t 的情况下,时刻 t+1 的隐状态 h_{t+1} 的概率,是通过考虑所有可能的前一个隐状态 h_t 来计算当前隐状态的概率。

递归被初始化为 \pi_1(h_1) = P(h_1) 。 符号简化,也可以写成 \pi_{t+1} = f(\pi_t, x_t) , 其中 f 是一些可学习的函数。 这看起来就像我们在循环神经网络中讨论的隐变量模型中的更新方程。

与前向递归一样,我们也可以使用后向递归对同一组隐变量求和。这将得到:

\begin{aligned} & P(x_1, \ldots, x_T) \\ =& \sum_{h_1, \ldots, h_T} P(x_1, \ldots, x_T, h_1, \ldots, h_T) \\ =& \sum_{h_1, \ldots, h_T} \prod_{t=1}^{T-1} P(h_t \mid h_{t-1}) P(x_t \mid h_t) \cdot P(h_T \mid h_{T-1}) P(x_T \mid h_T) \\ =& \sum_{h_1, \ldots, h_{T-1}} \prod_{t=1}^{T-1} P(h_t \mid h_{t-1}) P(x_t \mid h_t) \cdot \underbrace{\left[\sum_{h_T} P(h_T \mid h_{T-1}) P(x_T \mid h_T)\right]}_{\rho_{T-1}(h_{T-1})\stackrel{\mathrm{def}}{=}} \\ =& \sum_{h_1, \ldots, h_{T-2}} \prod_{t=1}^{T-2} P(h_t \mid h_{t-1}) P(x_t \mid h_t) \cdot \underbrace{\left[\sum_{h_{T-1}} P(h_{T-1} \mid h_{T-2}) P(x_{T-1} \mid h_{T-1}) \rho_{T-1}(h_{T-1}) \right]}_{\rho_{T-2}(h_{T-2})\stackrel{\mathrm{def}}{=}} \\ =& \ldots \\ =& \sum_{h_1} P(h_1) P(x_1 \mid h_1)\rho_{1}(h_{1}). \end{aligned}

(9.4.4)

因此,我们可以将后向递归(backward recursion)写为:

\rho_{t-1}(h_{t-1})= \sum_{h_{t}} P(h_{t} \mid h_{t-1}) P(x_{t} \mid h_{t}) \rho_{t}(h_{t}), (9.4.5)

后向递归 \rho_{t-1}(h_{t-1}) 是在给定观测序列从时间 t 到 T 的情况下,时刻 t-1 的因状态 h_{t-1} 的概率,是通过所有可能的后一个隐状态 h_t 来计算当前隐状态的概率。 初始化 \rho_T(h_T) = 1 。 前向和后向递归都允许我们对 T 个隐变量在 \mathcal{O}(kT) (线性而不是指数)时间内对 (h_1, \ldots, h_T) 的所有值求和。 这是使用图模型进行概率推理的巨大好处之一。 它也是通用消息传递算法 (Aji and McEliece, 2000) 的一个非常特殊的例子。 结合前向和后向递归,我们能够计算

P(x_j \mid x_{-j}) \propto \sum_{h_j} \pi_j(h_j) \rho_j(h_j) P(x_j \mid h_j). (9.4.6)

(9.4.6)是计算在给定观测序列中,某个特定观测 x_j 在除它以外的其他观测 x_{-j} 已知的情况下的条件概率。

因为符号简化的需要,后向递归也可以写为 \rho_{t-1} = g(\rho_t, x_t) , 其中 g 是一个可以学习的函数。 同样,这看起来非常像一个更新方程, 只是不像我们在循环神经网络中看到的那样前向运算,而是后向计算。 事实上,知道未来数据何时可用对隐马尔可夫模型是有益的。 信号处理学家将是否知道未来观测这两种情况区分为内插和外推, 有关更多详细信息,请参阅 (f="https://zh.d2l.ai/chapter_references/zreferences.html#id35">Doucetet al., 2001)。

双向模型

如果我们希望在循环神经网络中拥有一种机制, 使之能够提供与隐马尔可夫模型类似的前瞻能力, 我们就需要修改循环神经网络的设计。 幸运的是,这在概念上很容易, 只需要增加一个“从最后一个词元开始从后向前运行”的循环神经网络, 而不是只有一个在前向模式下“从第一个词元开始运行”的循环神经网络。 双向循环神经网络(bidirectional RNNs) 添加了反向传递信息的隐藏层,以便更灵活地处理此类信息。 图9.4.2 描述了具有单个隐藏层的双向循环神经网络的架构。

事实上,这与隐马尔可夫模型中的动态规划的前向和后向递归没有太大区别。 其主要区别是,在隐马尔可夫模型中的方程具有特定的统计意义。 双向循环神经网络没有这样容易理解的解释, 我们只能把它们当作通用的、可学习的函数。 这种转变集中体现了现代深度网络的设计原则: 首先使用经典统计模型的函数依赖类型,然后将其参数化为通用形式。

定义

双向循环神经网络是由 (Schuster and Paliwal, 1997) 提出的, 关于各种架构的详细讨论请参阅 (Graves and Schmidhuber, 2005)。 让我们看看这样一个网络的细节。

对于任意时间步 t ,给定一个小批量的输入数据 \mathbf{X}_t \in \mathbb{R}^{n \times d} (样本数 n ,每个示例中的输入数 d ), 并且令隐藏层激活函数为 \phi 。 在双向架构中,我们设该时间步的前向和反向隐状态分别为 \overrightarrow{\mathbf{H}}_t \in \mathbb{R}^{n \times h} 和 \overleftarrow{\mathbf{H}}_t \in \mathbb{R}^{n \times h} , 其中 h 是隐藏单元的数目。 前向和反向隐状态的更新如下:

\begin{aligned} \overrightarrow{\mathbf{H}}_t &= \phi(\mathbf{X}_t \mathbf{W}_{xh}^{(f)} + \overrightarrow{\mathbf{H}}_{t-1} \mathbf{W}_{hh}^{(f)} + \mathbf{b}_h^{(f)}),\\ \overleftarrow{\mathbf{H}}_t &= \phi(\mathbf{X}_t \mathbf{W}_{xh}^{(b)} + \overleftarrow{\mathbf{H}}_{t+1} \mathbf{W}_{hh}^{(b)} + \mathbf{b}_h^{(b)}), \end{aligned} (9.4.7)

其中,权重 \mathbf{W}_{xh}^{(f)} \in \mathbb{R}^{d \times h}, \mathbf{W}_{hh}^{(f)} \in \mathbb{R}^{h \times h}, \mathbf{W}_{xh}^{(b)} \in \mathbb{R}^{d \times h}, \mathbf{W}_{hh}^{(b)} \in \mathbb{R}^{h \times h} 和偏置 \mathbf{b}_h^{(f)} \in \mathbb{R}^{1 \times h}, \mathbf{b}_h^{(b)} \in \mathbb{R}^{1 \times h} 都是模型参数。

接下来,将前向隐状态 \overrightarrow{\mathbf{H}}_t 和反向隐状态 \overleftarrow{\mathbf{H}}_t 连接起来, 获得需要送入输出层的隐状态 \mathbf{H}_t \in \mathbb{R}^{n \times 2h} 。 在具有多个隐藏层的深度双向循环神经网络中, 该信息作为输入传递到下一个双向层。 \mathbf{H}_t = [\overrightarrow{\mathbf{H}}_t, \overleftarrow{\mathbf{H}}_t]

最后,输出层计算得到的输出为 \mathbf{O}_t \in \mathbb{R}^{n \times q} ( q 是输出单元的数目):

\mathbf{O}_t = \mathbf{H}_t \mathbf{W}_{hq} + \mathbf{b}_q. (9.4.8)

这里,权重矩阵 \mathbf{W}_{hq} \in \mathbb{R}^{2h \times q} 和偏置 \mathbf{b}_q \in \mathbb{R}^{1 \times q} 是输出层的模型参数。 事实上,这两个方向可以拥有不同数量的隐藏单元。

模型的计算代价及其应用

双向循环神经网络的一个关键特性是:使用来自序列两端的信息来估计输出。 也就是说,我们使用来自过去和未来的观测信息来预测当前的观测。 但是在对下一个词元进行预测的情况中,这样的模型并不是我们所需的。 因为在预测下一个词元时,我们终究无法知道下一个词元的下文是什么, 所以将不会得到很好的精度。 具体地说,在训练期间,我们能够利用过去和未来的数据来估计现在空缺的词; 而在测试期间,我们只有过去的数据,因此精度将会很差。 下面的实验将说明这一点。

另一个严重问题是,双向循环神经网络的计算速度非常慢。 其主要原因是网络的前向传播需要在双向层中进行前向和后向递归, 并且网络的反向传播还依赖于前向传播的结果。 因此,梯度求解将有一个非常长的链。

双向层的使用在实践中非常少,并且仅仅应用于部分场合。 例如,填充缺失的单词、词元注释(例如,用于命名实体识别) 以及作为序列处理流水线中的一个步骤对序列进行编码(例如,用于机器翻译)。 在 14.8节 和 15.2节 中, 我们将介绍如何使用双向循环神经网络编码文本序列。

(双向循环神经网络的错误应用)

由于双向循环神经网络使用了过去的和未来的数据, 所以我们不能盲目地将这一语言模型应用于任何预测任务。 尽管模型产出的困惑度是合理的, 该模型预测未来词元的能力却可能存在严重缺陷。 我们用下面的示例代码引以为戒,以防在错误的环境中使用它们。

import torch
from torch import nn
from d2l import torch as d2l# 加载数据
batch_size, num_steps, device = 32, 35, d2l.try_gpu()
train_iter, vocab = d2l.load_data_time_machine(batch_size, num_steps)
# 通过设置“bidirective=True”来定义双向LSTM模型
vocab_size, num_hiddens, num_layers = len(vocab), 256, 2
num_inputs = vocab_size
lstm_layer = nn.LSTM(num_inputs, num_hiddens, num_layers, bidirectional=True)
model = d2l.RNNModel(lstm_layer, len(vocab))
model = model.to(device)
# 训练模型
num_epochs, lr = 500, 1
d2l.train_ch8(model, train_iter, vocab, lr, num_epochs, device)

输出结果:
perplexity 1.1, 13519.8 tokens/sec on cpu
time travellerererererererererererererererererererererererererer
travellerererererererererererererererererererererererererer

上述结果显然令人瞠目结舌。 关于如何更有效地使用双向循环神经网络的讨论, 请参阅 15.2节 中的情感分类应用。

小结

  • 在双向循环神经网络中,每个时间步的隐状态由当前时间步的前后数据同时决定。
  • 双向循环神经网络与概率图模型中的“前向-后向”算法具有相似性。
  • 双向循环神经网络主要用于序列编码和给定双向上下文的观测估计,不舍用于预测未来。
  • 由于梯度链更长,因此双向循环神经网络的训练代价非常高。

练习

1. 如果不同方向使用不同数量的隐藏单位, \mathbf{H_t} 的形状会发生怎样的变化?
解:
\mathbf{H_t} 的形状是将前向和后向隐状态按第一个维度(样本数n)连接起来,如果前向隐状态 \overrightarrow{\mathbf{H}}_t \in \mathbb{R}^{n \times h_1} ,后向隐状态 \overleftarrow{\mathbf{H}}_t \in \mathbb{R}^{n \times h_2} ,那么 \mathbf{H_t} \in \mathbb{R}^{n \times (h_1+h_2)} 。

2. 设计一个具有多个隐藏层的双向循环神经网络。
解:
在高级API在增加num_layers即可。代码如下:

vocab_size, num_hiddens, num_layers = len(vocab), 256, 2
num_inputs = vocab_size
device = d2l.try_gpu()
# 增加num_layers参数
lstm_layer = nn.LSTM(num_inputs, num_hiddens, num_layers, bidirectional=True)
model = d2l.RNNModel(lstm_layer, len(vocab))
model = model.to(device)
print(model)

输出结果:
RNNModel(
(rnn): LSTM(28, 256, num_layers=2, bidirectional=True)
(linear): Linear(in_features=512, out_features=28, bias=True)
)

3. 在自然语言中一词多义很常见。例如,“bank”一词在不同的上下文“i went to the bank to deposit cash”和“i went to the bank to sit down”中有不同的含义。如何设计一个神经网络模型,使其在给定上下文序列和单词的情况下,返回该单词在此上下文中的向量表示?哪种类型的神经网络架构更适合处理一词多义?

解:
处理自然语言中的一词多义问题,关键在于设计一个能够捕捉到上下文信息的神经网络模型。比如本节中介绍的Bi-RNN。
或者用Transformer模型也可以,它完全基于注意力机制,不依赖于循环结构,可以并行处理序列中的所有单词,并且能够捕捉到单词之间的全局依赖关系。因此Transformer特别适合处理长序列,因为它不受限于序列长度带来的梯度消失或梯度爆炸问题。
应用以上模型编码给定上下文序列,对于给定的单词,将编码后的上下文信息与单词本身的嵌入向量结合,可以获得其在特定上下文中的向量表示。

版权声明:

本网仅为发布的内容提供存储空间,不对发表、转载的内容提供任何形式的保证。凡本网注明“来源:XXX网络”的作品,均转载自其它媒体,著作权归作者所有,商业转载请联系作者获得授权,非商业转载请注明出处。

我们尊重并感谢每一位作者,均已注明文章来源和作者。如因作品内容、版权或其它问题,请及时与我们联系,联系邮箱:809451989@qq.com,投稿邮箱:809451989@qq.com