首页 > 后端开发 > php教程 > curl 分页获取十几万的数据 服务器超时,如何解决?

curl 分页获取十几万的数据 服务器超时,如何解决?

WBOYWBOYWBOYWBOYWBOYWBOYWBOYWBOYWBOYWBOYWBOYWBOYWB
发布: 2016-06-06 20:45:23
原创
1220 人浏览过

curl 获取api的接口数据,while循环page++接收处理数据,每页100条数据。数据总共十几万条。老是服务器超时,如何解决?
max_execution_time set_time_limit

回复内容:

curl 获取api的接口数据,while循环page++接收处理数据,每页100条数据。数据总共十几万条。老是服务器超时,如何解决?
max_execution_time set_time_limit

人家受不了了,你就弄慢点啊,sleep一下~

如果是坐蜘蛛抓人家页面内容,建议利用程序通过代理IP去抓取,否则人家看你抓取频繁直接封IP,就麻烦了;
如果是自己内部的,就像 @ChanneW 说的,sleep时间长点,慢点抓

确实有这样的问题,最好的解决办法是结合数据库做一个采集应用,采集成功的修改状态为1,采集不到的修改状态为0,然后通过定时脚本,轮询采集
分析失败原因,是不是上班时间段访问量比较大,导致的,可以错开该时间段,比如晚上/凌晨采集,希望能帮到你。

为防止超时,还可以进行不停刷新跳转。重新进行请求。

来源:php.cn
本站声明
本文内容由网友自发贡献,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系admin@php.cn
最新问题
Nginx/Apache 和Apache Tomcat 的区别
来自于 1970-01-01 08:00:00
0
0
0
Apache自动停
来自于 1970-01-01 08:00:00
0
0
0
apache停止
来自于 1970-01-01 08:00:00
0
0
0
apache重启失败
来自于 1970-01-01 08:00:00
0
0
0
apache出错
来自于 1970-01-01 08:00:00
0
0
0
热门教程
更多>
最新下载
更多>
网站特效
网站源码
网站素材
前端模板