将蜘蛛的输出保存在变量而不是文件中
Saving the output of spider in a variable rather than in a file
我正在寻找一种将蜘蛛输出保存在 python 变量中的方法,而不是将其保存在 json
文件中并在程序中读回。
import scrapy
from scrapy.crawler import CrawlerProcess
class TestSpider(scrapy.Spider):
name = 'test'
start_urls = ['https://www.wikipedia.org']
def parse(self, response):
yield {
'text' : response.css(".jsl10n.localized-slogan::text").extract_first()
}
if __name__ == "__main__":
os.remove('result.json')
process = CrawlerProcess({
'USER_AGENT': 'Mozilla/4.0 (compatible; MSIE 7.0; Windows NT 5.1)',
'FEED_FORMAT': 'json',
'FEED_URI': 'result.json'
})
process.crawl(TestSpider)
process.start()
我想避免下面的步骤,直接读取值而不是先将其保存在磁盘上
with io.open('result.json', encoding='utf-8') as json_data:
d = json.load(json_data)
text = d[0]['text']
我最终使用 global
变量来存储解决我的目的的输出。
import scrapy
from scrapy.crawler import CrawlerProcess
outputResponse = {}
class TestSpider(scrapy.Spider):
name = 'test'
start_urls = ['https://www.wikipedia.org']
def parse(self, response):
global outputResponse
outputResponse['text'] = response.css(".jsl10n.localized-slogan::text").extract_first()
if __name__ == "__main__":
os.remove('result.json')
process = CrawlerProcess({
'USER_AGENT': 'Mozilla/4.0 (compatible; MSIE 7.0; Windows NT 5.1)',
})
process.crawl(TestSpider)
process.start()
你也可以传递一个对象给spider然后改变它,像这样:
class TestSpider(scrapy.Spider):
name = 'test'
start_urls = ['https://www.wikipedia.org']
def parse(self, response):
self.outputResponse['text'] = response.css(".jsl10n.localized-slogan::text").extract_first()
if __name__ == "__main__":
os.remove('result.json')
outputResponse = {}
process = CrawlerProcess({
'USER_AGENT': 'Mozilla/4.0 (compatible; MSIE 7.0; Windows NT 5.1)',
})
process.crawl(TestSpider, outputResponse=outputResponse)
process.start()
这是有效的,因为传递给蜘蛛构造函数的每个命名参数都作为属性分配给一个实例,这就是为什么您可以在 parse
方法中使用 self.outputResponse
并可以访问外部对象。
我正在寻找一种将蜘蛛输出保存在 python 变量中的方法,而不是将其保存在 json
文件中并在程序中读回。
import scrapy
from scrapy.crawler import CrawlerProcess
class TestSpider(scrapy.Spider):
name = 'test'
start_urls = ['https://www.wikipedia.org']
def parse(self, response):
yield {
'text' : response.css(".jsl10n.localized-slogan::text").extract_first()
}
if __name__ == "__main__":
os.remove('result.json')
process = CrawlerProcess({
'USER_AGENT': 'Mozilla/4.0 (compatible; MSIE 7.0; Windows NT 5.1)',
'FEED_FORMAT': 'json',
'FEED_URI': 'result.json'
})
process.crawl(TestSpider)
process.start()
我想避免下面的步骤,直接读取值而不是先将其保存在磁盘上
with io.open('result.json', encoding='utf-8') as json_data:
d = json.load(json_data)
text = d[0]['text']
我最终使用 global
变量来存储解决我的目的的输出。
import scrapy
from scrapy.crawler import CrawlerProcess
outputResponse = {}
class TestSpider(scrapy.Spider):
name = 'test'
start_urls = ['https://www.wikipedia.org']
def parse(self, response):
global outputResponse
outputResponse['text'] = response.css(".jsl10n.localized-slogan::text").extract_first()
if __name__ == "__main__":
os.remove('result.json')
process = CrawlerProcess({
'USER_AGENT': 'Mozilla/4.0 (compatible; MSIE 7.0; Windows NT 5.1)',
})
process.crawl(TestSpider)
process.start()
你也可以传递一个对象给spider然后改变它,像这样:
class TestSpider(scrapy.Spider):
name = 'test'
start_urls = ['https://www.wikipedia.org']
def parse(self, response):
self.outputResponse['text'] = response.css(".jsl10n.localized-slogan::text").extract_first()
if __name__ == "__main__":
os.remove('result.json')
outputResponse = {}
process = CrawlerProcess({
'USER_AGENT': 'Mozilla/4.0 (compatible; MSIE 7.0; Windows NT 5.1)',
})
process.crawl(TestSpider, outputResponse=outputResponse)
process.start()
这是有效的,因为传递给蜘蛛构造函数的每个命名参数都作为属性分配给一个实例,这就是为什么您可以在 parse
方法中使用 self.outputResponse
并可以访问外部对象。