84669 人が学習中
152542 人が学習中
20005 人が学習中
5487 人が学習中
7821 人が学習中
359900 人が学習中
3350 人が学習中
180660 人が学習中
48569 人が学習中
18603 人が学習中
40936 人が学習中
1549 人が学習中
1183 人が学習中
32909 人が学習中
scrapy版本:1.1.2python 版本:3.5
在使用scrapy抓取数据的时候使用了代理IP,难免会遇到代理IP失效的情况。
因为对数据完整性要求较高,请问如何设置只要没有成功的返回response则把任务重新放进Request队列中去继续爬取?
欢迎选择我的课程,让我们一起见证您的进步~~
scrapy に付属の scrapy.downloadermiddlewares.retry.RetryMiddleware ミドルウェアを使用し、次のパラメータで設定できます: RETRY_ENABLED: 再試行を有効にするかどうかRETRY_TIMES: 再試行の回数 RETRY_HTTP_CODECS : http コードが発生した場合は再試行する必要があります。デフォルトは 500、502、503、504、408 です。ネットワーク接続タイムアウトなどの他の問題の場合も、自動的に再試行されます。
scrapy.downloadermiddlewares.retry.RetryMiddleware
RETRY_ENABLED
RETRY_TIMES
RETRY_HTTP_CODECS
scrapy に付属の
scrapy.downloadermiddlewares.retry.RetryMiddleware
ミドルウェアを使用し、次のパラメータで設定できます:RETRY_ENABLED
: 再試行を有効にするかどうかRETRY_TIMES
: 再試行の回数RETRY_HTTP_CODECS
: http コードが発生した場合は再試行する必要があります。デフォルトは 500、502、503、504、408 です。ネットワーク接続タイムアウトなどの他の問題の場合も、自動的に再試行されます。