LSTM 单元去哪里了?
Where does the LSTM cell go?
我看过很多关于 LSTM 单元的视频,我知道它使用各种门来操纵它拥有的记忆或单元状态:
)
我的问题是这个 LSTM 单元去哪里?
是否:
- 替换每个感知器?我认为不是,因为它似乎接收矢量输入。
- 置于隐藏层之间?
- 放置在生成最终输出并将单元状态传递到输入层之后?
或者完全不同的东西?
我找到了这张照片,但我还是很困惑。任何帮助将不胜感激。
您好,如果我理解您的问题,您是在询问 LSTM 单元在神经网络中的位置。
好吧,神经网络由输入层、隐藏层和输出层组成。 LSTM层可以放在其中任何一个。
现在,每个 LSTM 层都由单元组成。这些单元代表 LSTM 层的感知器,它们的工作方式与传统的感知器不同。
正如您在这张图片中看到的,递归层的感知器考虑了前一个时间步长的输出和新的输入。基于这两个参数如何用于计算新输出,我们有许多类型的 RNN,例如 LSTM 和 GRU。
我希望这能回答您的问题。
我看过很多关于 LSTM 单元的视频,我知道它使用各种门来操纵它拥有的记忆或单元状态:
我的问题是这个 LSTM 单元去哪里?
是否:
- 替换每个感知器?我认为不是,因为它似乎接收矢量输入。
- 置于隐藏层之间?
- 放置在生成最终输出并将单元状态传递到输入层之后?
或者完全不同的东西?
我找到了这张照片,但我还是很困惑。任何帮助将不胜感激。
您好,如果我理解您的问题,您是在询问 LSTM 单元在神经网络中的位置。
好吧,神经网络由输入层、隐藏层和输出层组成。 LSTM层可以放在其中任何一个。
现在,每个 LSTM 层都由单元组成。这些单元代表 LSTM 层的感知器,它们的工作方式与传统的感知器不同。
正如您在这张图片中看到的,递归层的感知器考虑了前一个时间步长的输出和新的输入。基于这两个参数如何用于计算新输出,我们有许多类型的 RNN,例如 LSTM 和 GRU。
我希望这能回答您的问题。