递归神经网络作为特征提取
Recurrent neural networks as feature extraction
对于卷积网络,可以将卷积部分(卷积、最大池等)视为特征提取,然后将其馈送到进行分类(或多或少)的前馈网络中。
循环网络(RNN、LSTM 等)也是如此,即循环层创建 data/features 的表示,然后将其馈送到前馈层?
我是从情感分析的角度考虑的,即 "sequence to one" 模型。你认为有一个循环层 + 一个前馈层会优于只有一个循环层网络吗?
循环层就像带有反馈回路的前馈神经网络。他们只是将过去有用的信息传递给现在。
一个不错的解释是:https://kevinzakka.github.io/2017/07/20/rnn/
在向 RNN 添加更多层之前,您可以在 https://arxiv.org/pdf/1312.6026.pdf
中找到深度 RNN 的详细信息
论文说深度 RNN 优于传统 RNN
对于卷积网络,可以将卷积部分(卷积、最大池等)视为特征提取,然后将其馈送到进行分类(或多或少)的前馈网络中。
循环网络(RNN、LSTM 等)也是如此,即循环层创建 data/features 的表示,然后将其馈送到前馈层?
我是从情感分析的角度考虑的,即 "sequence to one" 模型。你认为有一个循环层 + 一个前馈层会优于只有一个循环层网络吗?
循环层就像带有反馈回路的前馈神经网络。他们只是将过去有用的信息传递给现在。
一个不错的解释是:https://kevinzakka.github.io/2017/07/20/rnn/
在向 RNN 添加更多层之前,您可以在 https://arxiv.org/pdf/1312.6026.pdf
中找到深度 RNN 的详细信息论文说深度 RNN 优于传统 RNN