用charles对一览(https://www.yilan.io/home/?ca...)进行抓包,该页面是懒加载形式,每一次加载会生成一个recommended(登录情况下文件名变化但是原理相同),这个文件里面有json可以取得想要的数据。但是post的地址(见图片顶部)如果直接复制访问会报404,不知道该如何获得可以获取数据的真实地址,并进行若干个recommended的批量抓取呢?谢谢!
学习是最好的投资!
說一下我的方法,已經爬取到資料。我用的是firebug,打開後找到如下路徑:https://www.yilan.io/article/recommended看了一下要post的內容,需要這組數據{"skip":0,"limit":20}。下面開始寫程式碼:
https://www.yilan.io/article/recommended
import urllib2 import urllib import gzip from StringIO import StringIO import json api = 'https://www.yilan.io/article/recommended' data = {"skip":0,"limit":20} headers = { 'Accept': 'application/json, text/plain, */*', 'Accept-Encoding': 'gzip, deflate', 'Accept-Language': 'zh-CN,zh', 'Connection': 'keep-alive', 'Cookie': 'XSRF-TOKEN=APc3KgEq-6wavGArI6rLf6tPW69j7H_Qm2s0; user=%7B%22_id%22%3A%22%22%2C%22role%22%3A%7B%22title%22%3A%22anon%22%2C%22bitMask%22%3A1610612736%7D%7D; Metrix-sid=s%3AjDAFvFGo3C0BJzR7cTXBXHl6VM493Gp0.C1svjUqfnY3NhUluURMDdaL3HEpUX8rpSj9%2F9yhKnEI', 'User-Agent': 'Mozilla/5.0 (Macintosh; Intel Mac OS X 10.12; rv:51.0) Gecko/20100101 Firefox/51.0', 'X-XSRF-TOKEN': 'APc3KgEq-6wavGArI6rLf6tPW69j7H_Qm2s0' } url_data = urllib.urlencode(data) request = urllib2.Request(api, data=url_data,headers=headers) content = urllib2.urlopen(request).read() contents = StringIO(content) f = gzip.GzipFile(mode='rb', fileobj=contents).read() b = json.loads(f) print b
運行結果如下:
[{u'readCount': 12, u'siteTitle': u'\u5de5\u5177\u7656', u'siteUrl': u'http://jianshu.milkythinking.com/feeds/collections/2mvgxp', u'siteFavicon': u'http://7xiyp4.com2.z0.glb.qiniucdn.com/site-5627773e8b3ac7e104c6280f-favicon', u'feature_image': u'http://7x2wdd.com2.z0.glb.qiniucdn.com/54e7178471ab07ea378e0d254a57b3cc', u'author': u'', u'url': ...]
接著提取想要的內容就行,可以更改limit的值來改變一次要取得的內容數量。 該網站可能會在後台檢查你所post的數據,如果錯誤會導致404,這也就是直接打開該路徑不能訪問的原因。
大概是 HTTP HEADERS 設定不當,具體如何設定我也看不出來,可以來一套模擬常規瀏覽器的HEADERS,或是在瀏覽器追蹤請求。
說一下我的方法,已經爬取到資料。我用的是firebug,打開後找到如下路徑:

https://www.yilan.io/article/recommended
看了一下要post的內容,需要這組數據{"skip":0,"limit":20}。下面開始寫程式碼:
運行結果如下:
接著提取想要的內容就行,可以更改limit的值來改變一次要取得的內容數量。
該網站可能會在後台檢查你所post的數據,如果錯誤會導致404,這也就是直接打開該路徑不能訪問的原因。
大概是 HTTP HEADERS 設定不當,具體如何設定我也看不出來,可以來一套模擬常規瀏覽器的HEADERS,或是在瀏覽器追蹤請求。