python - requests get不到完整页面源码
巴扎黑
巴扎黑 2017-04-17 17:53:46
0
5
3338

使用requests进行get只获取到了一部分html源码,下面是我的代码

def get_url(self,url=None,proxies=None):
    header = {
        'User-Agent' : 'Mozilla/5.0 (X11; Ubuntu; Linux x86_64; rv:46.0) Gecko/20100101 Firefox/46.0',
        'Content-Type': 'application/x-www-form-urlencoded',
        'Connection' : 'Keep-Alive',
        'Accept':'text/html,application/xhtml+xml,application/xml;q=0.9,*/*;q=0.8'
        }
    for prox in proxies:
        try:
            r=requests.get(url,proxies=prox,headers=header)
            if r.status_code!=200:
                continue
            else:
                print "使用{0}连接成功>>".format(prox)
                return r.content
        except Exception, e:
            return None

proxies参数是一个代理列表,这段代码会尝试使用proxies进行访问,访问成功就会返回
但是我获取到的页面源码不完整

巴扎黑
巴扎黑

全部回复(5)
巴扎黑

存在几个原因
1.也许有些内容是通过ajax加载的。
所以通过requests.get是得不到全剖内容的,
建议通过使用firebug等工具去确定是不是这样的原因。

  1. 是不是登录后才能有的内容。

Ty80

我的代码可以获取到页面的全部内容,但没有用requests的proxies参数。
试试看不用代理能否获得完整内容呢?

我的代码:

import requests

headers = {
        'User-Agent' : 'Mozilla/5.0 (X11; Ubuntu; Linux x86_64; rv:46.0) Gecko/20100101 Firefox/46.0',
        'Content-Type': 'application/x-www-form-urlencoded',
        'Connection' : 'Keep-Alive',
        'Accept':'text/html,application/xhtml+xml,application/xml;q=0.9,*/*;q=0.8'
}
html = requests.get('http://www.xicidaili.com/nn/', headers=headers).text
print html
Ty80

抓到Ubuntuer一枚....竟然还装了主题....我就是飘过....

刘奇

1楼回答的很清楚了,应该是网页返回是异步加载的,建议你用fiddler之类的抓包看下,是不是有异步请求!

左手右手慢动作

我来说说怎么排查吧。【老司机勿吐槽】

1、使用chrome的network工具进行抓包(其他工具也行),对比response和你抓取的结果。如果相同,则意味着这个页面需要通过js进行渲染。

2、如果步骤1对比后结果不一致,则考虑header内的其他字段造成的影响了。一般情况下,cookie影响访问权限,user-agent影响dom结构和内容。主要先排查这两点。(有可能会有一些奇奇怪怪的header则需要特殊处理)

3、开代理测试请求排查访问ip被封禁等问题

4、如果确定是js渲染的页面。解决方案有二,一是抓取api接口(需要敏锐的发现规则能力),抓包方法参考1。二是直接在服务器上进行js渲染(相关的运算),得到最终页面渲染的结果。

热门教程
更多>
最新下载
更多>
网站特效
网站源码
网站素材
前端模板