最近正在学习Python中的异步编程,看了一些博客后做了一些小测验:对比asyncio+aiohttp的爬虫和asyncio+aiohttp+concurrent.futures(线程池/进程池)在效率中的差异,注释:在爬虫中我几乎没有使用任何计算性任务,为了探测异步的性能,全部都只是做了网络IO请求,就是说aiohttp把网页get完就程序就done了。
结果发现前者的效率比后者还要高。我询问了另外一位博主,(提供代码的博主没回我信息),他说使用concurrent.futures的话因为我全部都是IO任务,如果把这些IO任务分散到线程池/进程池,反而多线程/多进程之间的切换开销还会降低爬虫的效率。我想了想的确如此。
那么我的问题是:仅仅在爬取网页的过程中,就是request.get部分,多线程肯定是没有存在的必要了,因为GIL这个大坑,进程池可能好点,但是性能还是不如异步爬虫,而且更加浪费资源。既然这样,是不是以后在爬虫的爬取网页阶段我们完全都可以用兴起的asyncio+aiohttp代替。(以及其他IO任务比如数据库/文件读写)
当然在数据处理阶段还是要采用多进程,但是我觉得多线程是彻底没用了,原本它相比多进程的优势在于IO型任务,现看来在它的优势完全被异步取代了。(当然问题建立在不考虑兼容2.x)
注:还有一个额外的问题就是,看到一些博客说requests库不支持异步编程是什么意思,为了充分发回异步的优势应该使用aiohttp,我没有看过requests的源代码,但是一些结果显示aiohttp的性能确实更好,各位网友能解释一下吗?
asyncio+aiohttp
import aiohttp
async def fetch_async(a):
async with aiohttp.request('GET', URL.format(a)) as r:
data = await r.json()
return data['args']['a']
start = time.time()
event_loop = asyncio.get_event_loop()
tasks = [fetch_async(num) for num in NUMBERS]
results = event_loop.run_until_complete(asyncio.gather(*tasks))
for num, result in zip(NUMBERS, results):
print('fetch({}) = {}'.format(num, result))
asyncio+aiohttp+线程池比上面要慢1秒
async def fetch_async(a):
async with aiohttp.request('GET', URL.format(a)) as r:
data = await r.json()
return a, data['args']['a']
def sub_loop(numbers):
loop = asyncio.new_event_loop()
asyncio.set_event_loop(loop)
tasks = [fetch_async(num) for num in numbers]
results = loop.run_until_complete(asyncio.gather(*tasks))
for num, result in results:
print('fetch({}) = {}'.format(num, result))
async def run(executor, numbers):
await asyncio.get_event_loop().run_in_executor(executor, sub_loop, numbers)
def chunks(l, size):
n = math.ceil(len(l) / size)
for i in range(0, len(l), n):
yield l[i:i + n]
event_loop = asyncio.get_event_loop()
tasks = [run(executor, chunked) for chunked in chunks(NUMBERS, 3)]
results = event_loop.run_until_complete(asyncio.gather(*tasks))
print('Use asyncio+aiohttp+ThreadPoolExecutor cost: {}'.format(time.time() - start))
传统的requests + ThreadPoolExecutor比上面慢了3倍
import time
import requests
from concurrent.futures import ThreadPoolExecutor
NUMBERS = range(12)
URL = 'http://httpbin.org/get?a={}'
def fetch(a):
r = requests.get(URL.format(a))
return r.json()['args']['a']
start = time.time()
with ThreadPoolExecutor(max_workers=3) as executor:
for num, result in zip(NUMBERS, executor.map(fetch, NUMBERS)):
print('fetch({}) = {}'.format(num, result))
print('Use requests+ThreadPoolExecutor cost: {}'.format(time.time() - start))
以上问题建立在CPython,至于我喜欢用多线程,不喜欢协程风格这类型的回答显然不属于本题讨论范畴。我主要想请教的是:
如果Python拿不下GIL,我认为未来理想的模型应该是多进程 + 协程(asyncio+aiohttp)。uvloop和sanic以及500lines一个爬虫项目已经开始这么干了。不讨论兼容型问题,上面的看法是否正确,有一些什么场景协程无法取代多线程。
异步有很多方案,twisted, tornado等都有自己的解决方案,问题建立在asyncio+aiohttp的协程异步。
还有一个问题也想向各位网友请教一下
Je ne connais pas grand chose aux robots Python, mais généralement Scrapy est utilisé pour créer des robots. Il est basé sur le framework asynchrone torsadé.
Plusieurs processus peuvent utiliser pleinement plusieurs cœurs.À l'heure actuelle, l'idéal est multi-processus + coroutine.
Étant donné que la méthode synchrone est toujours utilisée dans les requêtes, elle bloquera le thread. Dans ce cas, cela ne sert à rien d'utiliser la méthode asynchrone. Vous pouvez la comprendre comme utilisant la méthode time.sleep au lieu de la méthode asyncio.sleep. asyncio.
Consultez cet article : http://aosabook.org/en/500L/a...
asyncio
adopte l'idée de coroutine, qui consiste à traiter plusieurs tâches asynchrones dans un seul thread. Quelles sont les tâches asynchrones, telles que Timing, Asynchronous IO, etc.Mais que se passe-t-il si la tâche ne prend pas en charge l'asynchrone ?
Par exemple, lire et écrire un IO bloquant, ou effectuer un chronophage grande quantité de calculs. Coroutine résoudra le problème du blocage des tâches et les avantages du multi-processus et du multi-thread seront reflétés.
Les scénarios d'utilisation des deux sont différents. Différents scénarios, différents plans.
asyncio nécessite la prise en charge de bibliothèques tierces associées, donc fondamentalement, toutes les bibliothèques tierces doivent être écrites séparément, comme les ports série, les protocoles réseau, y compris les requêtes et http. Ce n'est pas bon, mais dans les bons cas, après. ceci Dans les deux versions, de nombreuses bibliothèques utilisées ont été asynchrones. Comprend les demandes.
asyncio nécessite une API asynchrone pour le prendre en charge (une API synchrone non bloquante est également disponible, mais Python n'a pas une telle chose
setInterval
, et vous devrez peut-être la pirater).S'il s'agit d'une API de blocage synchrone, si un rappel est bloqué, les autres rappels ne peuvent pas être exécutés. Vous pouvez y jeter un œil. Les API IO que vous avez vues jusqu'à présent bloquent essentiellement.
Le multi-threading Python n'est pas pratique du fait de l'existence de GIL, mais le multi-processus reste quand même très utile