递归神经网络 (RNN) - 忘记层和 TensorFlow

Recurrent Neural Network (RNN) - Forget Layer, and TensorFlow

我是 RNN 的新手,我想弄清楚 LSTM 单元的细节以及它们与 TensorFlow 的关系:Colah GitHub 与 TensorFlow 相比,GitHub 网站的示例是否使用相同的 LSTM 单元?我在 TensorFlow 网站上得到的唯一信息是基本 LSTM 单元使用以下架构:Paper 如果它是相同的架构,那么我可以手动计算 LSTM 单元的数字并查看它是否匹配。

此外,当我们在 tensorflow 中设置一个基本的 LSTM 单元时,它根据 TensorFlow documentation

接受 num_units
tf.nn.rnn_cell.GRUCell.__init__(num_units, input_size=None, activation=tanh)

这是隐藏状态(h_t))和细胞状态(C_t)的数量吗?

根据 GitHub 网站,没有提及细胞状态和隐藏状态的数量。我假设它们必须是相同的数字?

实现看起来与 GRUCell class doc also points the same paper (specifically for gated) with link given in Colah's article. Parameter num_units is the number of cells (assuming that is the hidden layer) corresponds to output_size due property definition 相同。