我如何*正确* 运行 循环中的 asyncio/aiohttp 请求?
How do I *properly* run an asyncio/aiohttp request in a loop?
我正在尝试同时请求一堆 URL,但是这些 URL 是从列表构建的。目前我正在遍历列表并(我认为)将它们添加到队列中。它绝对比 requests.get 快 10 倍,但是我不确定我是否正确地进行了操作,因此可以对其进行优化。我分析了它并注意到它在并发请求完成后仍有 90% 的时间处于锁定状态,即开始 -> 10+ 个并发请求 -> 锁定 5 秒左右 -> 完成
此外,此代码会在末尾生成一条 Unclosed client session
消息。知道为什么吗?很确定这是正确使用上下文管理器。
我搜索过但没有找到这个确切的问题
import signal
import sys
import asyncio
import aiohttp
import json
import requests
lists = ['eth', 'btc', 'xmr', 'req', 'xlm', 'etc', 'omg', 'neo', 'btc', 'xmr', 'req', 'xlm', 'etc', 'omg', 'neo']
loop = asyncio.get_event_loop()
client = aiohttp.ClientSession(loop=loop)
async def fetch(client, url):
async with client.get(url) as resp:
assert resp.status == 200
return await resp.text()
async def main(loop=loop, url=None):
async with aiohttp.ClientSession(loop=loop) as client:
html = await fetch(client, url)
print(html)
def signal_handler(signal, frame):
loop.stop()
client.close()
sys.exit(0)
signal.signal(signal.SIGINT, signal_handler)
tasks = []
for item in lists:
url = "{url}/{endpoint}/{coin_name}".format(
url='https://coincap.io',
endpoint='page',
coin_name=item.upper()
)
print(url)
tasks.append(
asyncio.ensure_future(main(url=url))
)
loop.run_until_complete(asyncio.gather(*tasks))
看起来你所做的工作,但正如你认为的那样,你没有完全正确地做所有事情:
- 您创建了一个您从未使用过的客户端,并且没有正确关闭(导致
Unclosed client session
)警告
- 您正在为每个请求创建一个客户端,这比重用客户端效率低得多。
- 你的大部分代码都不在 运行 事件循环中。
- 你拥有的信号处理程序不是必需的,如果你有很长的 运行 asyncio 任务,你可能想要使用
add_signal_handler
这是我对您的代码的简化理解:
import asyncio
import aiohttp
lists = ['eth', 'btc', 'xmr', 'req', 'xlm', 'etc', 'omg', 'neo', 'btc', 'xmr', 'req', 'xlm', 'etc', 'omg', 'neo']
async def fetch(client, item):
url = 'https://coincap.io/{endpoint}/{coin_name}'.format(
endpoint='page',
coin_name=item.upper()
)
async with client.get(url) as resp:
assert resp.status == 200
html = await resp.text()
print(html)
async def main():
async with aiohttp.ClientSession() as client:
await asyncio.gather(*[
asyncio.ensure_future(fetch(client, item))
for item in lists
])
loop = asyncio.get_event_loop()
loop.run_until_complete(main())
如果你想接着处理 html,你可以在 fetch 协程中进行,或者对来自 gather
.
的所有结果进行操作
我正在尝试同时请求一堆 URL,但是这些 URL 是从列表构建的。目前我正在遍历列表并(我认为)将它们添加到队列中。它绝对比 requests.get 快 10 倍,但是我不确定我是否正确地进行了操作,因此可以对其进行优化。我分析了它并注意到它在并发请求完成后仍有 90% 的时间处于锁定状态,即开始 -> 10+ 个并发请求 -> 锁定 5 秒左右 -> 完成
此外,此代码会在末尾生成一条 Unclosed client session
消息。知道为什么吗?很确定这是正确使用上下文管理器。
我搜索过但没有找到这个确切的问题
import signal
import sys
import asyncio
import aiohttp
import json
import requests
lists = ['eth', 'btc', 'xmr', 'req', 'xlm', 'etc', 'omg', 'neo', 'btc', 'xmr', 'req', 'xlm', 'etc', 'omg', 'neo']
loop = asyncio.get_event_loop()
client = aiohttp.ClientSession(loop=loop)
async def fetch(client, url):
async with client.get(url) as resp:
assert resp.status == 200
return await resp.text()
async def main(loop=loop, url=None):
async with aiohttp.ClientSession(loop=loop) as client:
html = await fetch(client, url)
print(html)
def signal_handler(signal, frame):
loop.stop()
client.close()
sys.exit(0)
signal.signal(signal.SIGINT, signal_handler)
tasks = []
for item in lists:
url = "{url}/{endpoint}/{coin_name}".format(
url='https://coincap.io',
endpoint='page',
coin_name=item.upper()
)
print(url)
tasks.append(
asyncio.ensure_future(main(url=url))
)
loop.run_until_complete(asyncio.gather(*tasks))
看起来你所做的工作,但正如你认为的那样,你没有完全正确地做所有事情:
- 您创建了一个您从未使用过的客户端,并且没有正确关闭(导致
Unclosed client session
)警告 - 您正在为每个请求创建一个客户端,这比重用客户端效率低得多。
- 你的大部分代码都不在 运行 事件循环中。
- 你拥有的信号处理程序不是必需的,如果你有很长的 运行 asyncio 任务,你可能想要使用
add_signal_handler
这是我对您的代码的简化理解:
import asyncio
import aiohttp
lists = ['eth', 'btc', 'xmr', 'req', 'xlm', 'etc', 'omg', 'neo', 'btc', 'xmr', 'req', 'xlm', 'etc', 'omg', 'neo']
async def fetch(client, item):
url = 'https://coincap.io/{endpoint}/{coin_name}'.format(
endpoint='page',
coin_name=item.upper()
)
async with client.get(url) as resp:
assert resp.status == 200
html = await resp.text()
print(html)
async def main():
async with aiohttp.ClientSession() as client:
await asyncio.gather(*[
asyncio.ensure_future(fetch(client, item))
for item in lists
])
loop = asyncio.get_event_loop()
loop.run_until_complete(main())
如果你想接着处理 html,你可以在 fetch 协程中进行,或者对来自 gather
.