您的位置:首页 > 汽车 > 新车 > 北京 网站设计找时代创信好_个人网页优秀作品_百度关键词优化策略_深圳货拉拉

北京 网站设计找时代创信好_个人网页优秀作品_百度关键词优化策略_深圳货拉拉

2024/11/18 14:39:21 来源:https://blog.csdn.net/weixin_73504499/article/details/142797484  浏览:    关键词:北京 网站设计找时代创信好_个人网页优秀作品_百度关键词优化策略_深圳货拉拉
北京 网站设计找时代创信好_个人网页优秀作品_百度关键词优化策略_深圳货拉拉

文章目录

  • 一、LSTM的简单介绍
  • 二、 LSTM的核心组件
  • 三、 LSTM的优势
  • 四、 应用场景

一、LSTM的简单介绍

  • 传统RNN循环神经网络的局限

    • 示例:当出现“我的职业是程序员。。。。。。我最擅长的是电脑”。当需要预测最后的词“电脑”。当前的信息建议下一个词可能是一种技能,但是如果我们需要弄清楚是什么技能,需要先前提到的离当前位置很远的“职业是程序员”的上下文。这说明相关信息和当前预测位置之间的间隔就变得相当的大。
    • 在理论上,RNN绝对可以处理这样的长期依赖问题。人们可以仔细挑选参数来解决这类问题中的最初级形式,但在实践中,RNN则没法太好的学习到这些知识
    • 原因是:梯度会随着时间的推移不断下降减少,而当梯度值变得非常小时,就不会继续学习。​
  • 长短期记忆网络(Long Short-Term Memory,LSTM)是一种特殊的循环神经网络(Recurrent Neural Network, RNN),主要设计用来解决传统RNN在处理长序列数据时存在的梯度消失梯度爆炸问题。LSTM通过引入门(Gate)机制,使得网络能够记住长期依赖的信息,同时忽略不重要的信息。

  • 下面链接中是对RNN网络的介绍:

    • https://blog.csdn.net/weixin_73504499/article/details/142770470?spm=1001.2014.3001.5501
  • 以下为LSTM的内部结构图:
    在这里插入图片描述

  • LSTM相当于在RNN的隐藏层的内部结构中进行了上图中进一步的改进,并循环的向后输出数据,如下图所示:
    在这里插入图片描述

二、 LSTM的核心组件

LSTM的核心在于其细胞状态(Cell State)和三个“门”机制:遗忘门(Forget Gate)、输入门(Input Gate)和输出门(Output Gate)。

  1. 细胞状态(Cell State)

    • 细胞状态是LSTM中的“记忆”线,它沿着整个链一直传递下去,只有一些少量的线性操作作用于其上,因此信息可以很容易地流过而不改变。
    • 如下图所示:
      在这里插入图片描述
  2. 遗忘门(Forget Gate)

    • 遗忘门决定了上一细胞状态中的哪些信息需要被丢弃。它通过查看前一个隐藏状态 h t − 1 h_{t-1} ht1 和当前输入 x t x_t xt,然后由sigmoid函数输出一个0到1之间的数,这个数表示细胞状态中信息的保留程度(1表示完全保留,0表示完全丢弃)。
    • 如下图为遗忘门结构和计算公式
      在这里插入图片描述
  3. 输入门(Input Gate)

    • 输入门决定了当前输入 x t x_t xt 中哪些信息需要被加入到细胞状态中。它首先通过sigmoid层决定哪些值需要更新,然后tanh层创建一个新的候选值向量 C ~ t \tilde{C}_t C~t,这个向量可能会被加入到细胞状态中。
    • 如下图为输入门结构和计算公式
      在这里插入图片描述
  4. 细胞状态更新

    • 旧的细胞状态 C t − 1 C_{t-1} Ct1 通过遗忘门和输入门的作用,更新为新的细胞状态 C t C_t Ct
    • 下图为更新结构图和计算公式
      在这里插入图片描述
  5. 输出门(Output Gate)

    • 输出门决定了基于细胞状态的当前输出是什么。首先,一个sigmoid层决定细胞状态的哪些部分需要输出。然后,细胞状态通过tanh处理(将其值规范化到-1到1之间),再与sigmoid层的输出相乘,最终得到当前时间步的输出 h t h_t ht
    • 下图为输出门的结构图和计算公式
      在这里插入图片描述

三、 LSTM的优势

  • 长期依赖:LSTM能够捕获序列数据中的长期依赖关系,这是传统RNN难以做到的。
  • 梯度问题:通过引入门机制,LSTM有效地缓解了RNN在处理长序列时容易出现的梯度消失或梯度爆炸问题。

四、 应用场景

LSTM在多种序列预测任务中表现出色,包括但不限于:

  • 自然语言处理:如机器翻译、文本生成、情感分析等。
  • 时间序列预测:如股票价格预测、天气预测等。
  • 语音识别:将语音信号转换为文本。
  • 推荐系统:基于用户历史行为预测未来兴趣。

版权声明:

本网仅为发布的内容提供存储空间,不对发表、转载的内容提供任何形式的保证。凡本网注明“来源:XXX网络”的作品,均转载自其它媒体,著作权归作者所有,商业转载请联系作者获得授权,非商业转载请注明出处。

我们尊重并感谢每一位作者,均已注明文章来源和作者。如因作品内容、版权或其它问题,请及时与我们联系,联系邮箱:809451989@qq.com,投稿邮箱:809451989@qq.com