python - 请问scrapy中如何设置request的重试次数
天蓬老师
天蓬老师 2017-04-18 09:37:31
0
1
903

scrapy版本:1.1.2
python 版本:3.5

在使用scrapy抓取数据的时候使用了代理IP,难免会遇到代理IP失效的情况。

因为对数据完整性要求较高,请问如何设置只要没有成功的返回response则把任务重新放进Request队列中去继续爬取?

天蓬老师
天蓬老师

欢迎选择我的课程,让我们一起见证您的进步~~

全部回覆(1)
阿神

可以使用scrapy自備的scrapy.downloadermiddlewares.retry.RetryMiddleware中间件,然后通过这几个参数进行配置:
RETRY_ENABLED: 是否开启retry
RETRY_TIMES: 重试次数
RETRY_HTTP_CODECS: 遇到什麼http code時需要重試,預設是500,502,503,504,408,其他的,網路連線逾時等問題也會自動retry的

熱門教學
更多>
最新下載
更多>
網站特效
網站源碼
網站素材
前端模板