将结果添加到一个列表中
Adding the results into one list
我遇到了这个问题,它看起来很简单,但我就是做不到,我正在做一个网络抓取项目,现在我正在抓取一个关键字列表,所以我的代码会像这样打印结果。
Kids Wear Shop
Plastic Children Toys
Balloon
Costumes
Montessori Toys
我只想将这些结果存储在一个列表中 我试图将它们附加到一个列表中,但它会将每一行存储在它自己的列表中。
r = requests.get(url)
soup = BeautifulSoup(r.content, 'lxml')
for div in soup.find_all('div', class_='keywords content-div'):
for span in div.find_all('span', class_='keyword key-content'):
for a in span.find_all('a'):
print(a.text)
find_all()
returns 所有结果的列表。因此,如果只找到一个,它将 return 一个包含该结果的列表。如果您知道只有一个值,请改用 find()
。然后您可以附加该单个值:
r = requests.get(url)
soup = BeautifulSoup(r.content, 'lxml')
lst = []
for div in soup.find_all('div', class_='keywords content-div'):
for span in div.find_all('span', class_='keyword key-content'):
lst.append(span.find('a').text)
print(lst)
或者如果确实有多个 a
可能,您可以将所有内容附加到列表中:
r = requests.get(url)
soup = BeautifulSoup(r.content, 'lxml')
lst = []
for div in soup.find_all('div', class_='keywords content-div'):
for span in div.find_all('span', class_='keyword key-content'):
for a in span.find_all('a'):
lst.append(a.text)
print(lst)
或者您在每一步中连接列表:
r = requests.get(url)
soup = BeautifulSoup(r.content, 'lxml')
lst = []
for div in soup.find_all('div', class_='keywords content-div'):
for span in div.find_all('span', class_='keyword key-content'):
lst += [a.text for a in span.find_all('a')]
print(lst)
我遇到了这个问题,它看起来很简单,但我就是做不到,我正在做一个网络抓取项目,现在我正在抓取一个关键字列表,所以我的代码会像这样打印结果。
Kids Wear Shop
Plastic Children Toys
Balloon
Costumes
Montessori Toys
我只想将这些结果存储在一个列表中 我试图将它们附加到一个列表中,但它会将每一行存储在它自己的列表中。
r = requests.get(url)
soup = BeautifulSoup(r.content, 'lxml')
for div in soup.find_all('div', class_='keywords content-div'):
for span in div.find_all('span', class_='keyword key-content'):
for a in span.find_all('a'):
print(a.text)
find_all()
returns 所有结果的列表。因此,如果只找到一个,它将 return 一个包含该结果的列表。如果您知道只有一个值,请改用 find()
。然后您可以附加该单个值:
r = requests.get(url)
soup = BeautifulSoup(r.content, 'lxml')
lst = []
for div in soup.find_all('div', class_='keywords content-div'):
for span in div.find_all('span', class_='keyword key-content'):
lst.append(span.find('a').text)
print(lst)
或者如果确实有多个 a
可能,您可以将所有内容附加到列表中:
r = requests.get(url)
soup = BeautifulSoup(r.content, 'lxml')
lst = []
for div in soup.find_all('div', class_='keywords content-div'):
for span in div.find_all('span', class_='keyword key-content'):
for a in span.find_all('a'):
lst.append(a.text)
print(lst)
或者您在每一步中连接列表:
r = requests.get(url)
soup = BeautifulSoup(r.content, 'lxml')
lst = []
for div in soup.find_all('div', class_='keywords content-div'):
for span in div.find_all('span', class_='keyword key-content'):
lst += [a.text for a in span.find_all('a')]
print(lst)