你能手动让 LSTM 忘记上下文吗?
Can you make an LSTM forget context manually?
我是机器学习的新手,正在考虑是否可以手动清空 LSTM 的短期记忆。比方说,我想在句子上训练 LSTM
“Jack and Jill went up the”,但决定不结束这句话。如果我想用“Humpty dumpty sat on a wall”来训练它,我如何防止它立即预测“hill”这个词?我正在使用 Keras。
相关:
如果你的 LSTM 是无状态的(stateful = False
,我认为这对你来说更有意义),或者如果你通过将这两个句子放在同一个句子上来训练 LSTM,则不需要重置上下文批量。
如果你真的这样做,请使用model.reset_state()
。
我是机器学习的新手,正在考虑是否可以手动清空 LSTM 的短期记忆。比方说,我想在句子上训练 LSTM “Jack and Jill went up the”,但决定不结束这句话。如果我想用“Humpty dumpty sat on a wall”来训练它,我如何防止它立即预测“hill”这个词?我正在使用 Keras。
相关:
如果你的 LSTM 是无状态的(stateful = False
,我认为这对你来说更有意义),或者如果你通过将这两个句子放在同一个句子上来训练 LSTM,则不需要重置上下文批量。
如果你真的这样做,请使用model.reset_state()
。