Keras LSTM 在每个单元上使用 softmax
Keras LSTM use softmax on every unit
我正在创建一个与下面提到的有点相似的模型:
model
我正在使用 Keras 来创建这样的模型,但由于找不到将 SoftMax 添加到 LSTM 单元的输出的方法而陷入了死胡同。到目前为止,所有教程和帮助 material 都提供了有关输出单个 class 的信息,即使在 this link.
中提供的图像字幕的情况下也是如此。
那么是否可以将 SoftMax 应用于 LSTM 的每个单元(其中 return 序列为真)或者我是否必须移动到 pytorch。
答案是:是的,可以应用于 LSTM 的每个单元,不,您不必迁移到 PyTorch。
虽然在 Keras 1.X 中您需要明确声明您添加了一个 TimeDistributed 层,但在 Keras 2.X 中您可以只写:
model.add(LSTM(50,activation='relu',return_sequences=False))
model.add(Dense(number_of_classes,activation='softmax'))
我正在创建一个与下面提到的有点相似的模型: model
我正在使用 Keras 来创建这样的模型,但由于找不到将 SoftMax 添加到 LSTM 单元的输出的方法而陷入了死胡同。到目前为止,所有教程和帮助 material 都提供了有关输出单个 class 的信息,即使在 this link.
中提供的图像字幕的情况下也是如此。那么是否可以将 SoftMax 应用于 LSTM 的每个单元(其中 return 序列为真)或者我是否必须移动到 pytorch。
答案是:是的,可以应用于 LSTM 的每个单元,不,您不必迁移到 PyTorch。
虽然在 Keras 1.X 中您需要明确声明您添加了一个 TimeDistributed 层,但在 Keras 2.X 中您可以只写:
model.add(LSTM(50,activation='relu',return_sequences=False))
model.add(Dense(number_of_classes,activation='softmax'))