递归神经网络 (RNN) - 忘记层和 TensorFlow
Recurrent Neural Network (RNN) - Forget Layer, and TensorFlow
我是 RNN 的新手,我想弄清楚 LSTM 单元的细节以及它们与 TensorFlow 的关系:Colah GitHub
与 TensorFlow 相比,GitHub 网站的示例是否使用相同的 LSTM 单元?我在 TensorFlow 网站上得到的唯一信息是基本 LSTM 单元使用以下架构:Paper 如果它是相同的架构,那么我可以手动计算 LSTM 单元的数字并查看它是否匹配。
此外,当我们在 tensorflow 中设置一个基本的 LSTM 单元时,它根据 TensorFlow documentation
接受 num_units
tf.nn.rnn_cell.GRUCell.__init__(num_units, input_size=None, activation=tanh)
这是隐藏状态(h_t))和细胞状态(C_t)的数量吗?
根据 GitHub 网站,没有提及细胞状态和隐藏状态的数量。我假设它们必须是相同的数字?
实现看起来与 GRUCell
class doc also points the same paper (specifically for gated) with link given in Colah's article. Parameter num_units
is the number of cells (assuming that is the hidden layer) corresponds to output_size
due property definition 相同。
我是 RNN 的新手,我想弄清楚 LSTM 单元的细节以及它们与 TensorFlow 的关系:Colah GitHub
此外,当我们在 tensorflow 中设置一个基本的 LSTM 单元时,它根据 TensorFlow documentation
接受num_units
tf.nn.rnn_cell.GRUCell.__init__(num_units, input_size=None, activation=tanh)
这是隐藏状态(h_t))和细胞状态(C_t)的数量吗?
根据 GitHub 网站,没有提及细胞状态和隐藏状态的数量。我假设它们必须是相同的数字?
实现看起来与 GRUCell
class doc also points the same paper (specifically for gated) with link given in Colah's article. Parameter num_units
is the number of cells (assuming that is the hidden layer) corresponds to output_size
due property definition 相同。