Tensorflow seq2seq - 回复的信心
Tensorflow seq2seq - confidence of reply
我想知道在 Tensorflow 的 seq2seq 框架中是否有一种方法可以让我知道是否可以以 x% 的置信度给出对输入的回复。
下面的例子:
我有 hi
作为对 hello
的回复。它工作正常。我还有一堆其他训练有素的句子。但是,假设我输入了一些像这样的垃圾 - sdjshj sdjk oiqwe qw
。 Seq2seq 仍然试图给出回应。我知道它是那样设计的,但我想知道是否有一种方法表明框架无法自信地回答这个问题。或者没有训练这样的词。
这会很有帮助。
我觉得average perplexity
返回的seq2seq_model.model.stop
就是置信度,越小越好。但是很难说出一个合适的阈值。
在输出 logits 上使用 logistic 函数(或 sigmoid):
因为logit函数基本上是sigmoid函数的反函数:
Logit 函数:
S 型函数:
可以看出是相似的。在张量流中。有 sigmoid 函数,但我发现当你只编写 sigmoid 函数时程序更快:
如果你使用sigmoid函数。您将获得一个从 0 到 1 的值,这是您正在寻找的置信度。可以在这里找到更多信息:
我想知道在 Tensorflow 的 seq2seq 框架中是否有一种方法可以让我知道是否可以以 x% 的置信度给出对输入的回复。
下面的例子:
我有 hi
作为对 hello
的回复。它工作正常。我还有一堆其他训练有素的句子。但是,假设我输入了一些像这样的垃圾 - sdjshj sdjk oiqwe qw
。 Seq2seq 仍然试图给出回应。我知道它是那样设计的,但我想知道是否有一种方法表明框架无法自信地回答这个问题。或者没有训练这样的词。
这会很有帮助。
我觉得average perplexity
返回的seq2seq_model.model.stop
就是置信度,越小越好。但是很难说出一个合适的阈值。
在输出 logits 上使用 logistic 函数(或 sigmoid): 因为logit函数基本上是sigmoid函数的反函数:
Logit 函数:
S 型函数:
可以看出是相似的。在张量流中。有 sigmoid 函数,但我发现当你只编写 sigmoid 函数时程序更快:
如果你使用sigmoid函数。您将获得一个从 0 到 1 的值,这是您正在寻找的置信度。可以在这里找到更多信息: