f1_score 中的 pos_label 到底是什么意思?
what does pos_label in f1_score really mean?
我正在 sklearn 中尝试 k_fold 交叉验证,但对 f1_score 中的 pos_label 参数感到困惑。我知道 pos_label 参数与如果类别不是二进制的则如何处理数据有关。但我对它的重要性并没有很好的概念性理解——有没有人对它在概念层面上的含义有很好的解释?
我已经阅读了文档,他们并没有真正帮助。
f1 分数是 harmonic mean of precision and recall. As such, you need to compute precision and recall 计算 f1 分数的依据。这两项措施都是参考 "true positives"(正实例分配正标签)、"false positives"(负实例分配正标签)等计算的
pos_label
参数可让您指定为了此计算,应将哪个 class 视为 "positive"。
更具体地说,假设您正在尝试构建一个 classifier,它可以在大量无趣事件中发现一些罕见事件。一般来说,您所关心的只是如何识别这些罕见的结果;背景标签本质上并不有趣。在这种情况下,您可以将 pos_label
设置为您感兴趣的 class。如果您处在关心 all classes 的结果的情况下,f1_score
可能不是合适的指标。
我正在 sklearn 中尝试 k_fold 交叉验证,但对 f1_score 中的 pos_label 参数感到困惑。我知道 pos_label 参数与如果类别不是二进制的则如何处理数据有关。但我对它的重要性并没有很好的概念性理解——有没有人对它在概念层面上的含义有很好的解释?
我已经阅读了文档,他们并没有真正帮助。
f1 分数是 harmonic mean of precision and recall. As such, you need to compute precision and recall 计算 f1 分数的依据。这两项措施都是参考 "true positives"(正实例分配正标签)、"false positives"(负实例分配正标签)等计算的
pos_label
参数可让您指定为了此计算,应将哪个 class 视为 "positive"。
更具体地说,假设您正在尝试构建一个 classifier,它可以在大量无趣事件中发现一些罕见事件。一般来说,您所关心的只是如何识别这些罕见的结果;背景标签本质上并不有趣。在这种情况下,您可以将 pos_label
设置为您感兴趣的 class。如果您处在关心 all classes 的结果的情况下,f1_score
可能不是合适的指标。