Python Scrapy:如何关闭集群的日志记录

Python Scrapy: How to close cluster's logging

我在Scrapy中使用了cluster.HierarchicalClustering,但是控制台中的日志太多了。如何关闭集群的日志,但我不想使用“--nolog”来关闭所有日志记录。

我试图在我的 Scrapy settings.py 中设置 LOG_LEVEL= 'INFO' 并且出现了其他日志记录。

这里是我关于集群的代码,如果有什么办法,请帮帮我。

from difflib import SequenceMatcher
from cluster import HierarchicalClustering


def distance(url1, url2):
    ratio = SequenceMatcher(None, url1, url2).ratio()
    return 1.0 - ratio

def urls_clustering(urls):
    hc = HierarchicalClustering(urls, distance)
    clusters = hc.getlevel(0.2)
    # pprint.pprint(clusters)

    return clusters

还有日志记录:

2017-06-29 13:48:29 [cluster.matrix] DEBUG: Generating row 159/203 (78.33%)
2017-06-29 13:48:29 [cluster.matrix] DEBUG: Generating row 160/203 (78.82%)
2017-06-29 13:48:29 [cluster.matrix] DEBUG: Generating row 161/203 (79.31%)
2017-06-29 13:48:29 [cluster.matrix] DEBUG: Generating row 162/203 (79.80%)

提前致谢。

你试过好的 ol'python 的 logging 吗?

import logging
logging.getLogger('cluster.matrix').setLevel(logging.WARNING)