這篇文章主要介紹了關於node爬取拉勾網數據並導出為excel文件,有著一定的參考價值,現在分享給大家,有需要的朋友可以參考一下
前言
之前斷斷續續學習了node.js,今天就拿拉勾網練練手,順便透過資料了解了解最近的招募行情哈! node方面算是萌新一個吧,希望可以和大家共同學習和進步。
一、概要
我們首先需要明確具體的需求:
可以透過node index 城市職位
來爬取相關資訊
也可以輸入node index start直接爬取我們預先定義好的城市和職位數組,循環爬取不同城市的不同職位資訊
將最終爬取的結果儲存在本地的./data
目錄下
-
產生對應的excel文件,並儲存到本地
二、爬蟲用到的相關模組
三、爬蟲主要步驟:
初始化專案
新專案目錄
在適當的磁碟目錄下建立項目目錄node-crwl-lagou
初始化項目
#進入node-crwl-lagou資料夾下
執行npm init,初始化package.json檔案
安裝依賴套件
npm install async
npm install superagent
npm install node-xlsx
##命令列輸入的處理
對於在命令列輸入的內容,可以用
process.argv來獲取,他會回傳個數組,數組的每一項就是使用者輸入的內容。
區分
node index 地理職位和
node index start兩個輸入,最簡單的就是判斷process.argv的長度,長度為四的話,就直接呼叫爬蟲主程式爬取數據,長度為三的話,我們就需要透過預先定義的城市和職位數組來拼湊url了,然後利用async.mapSeries循環呼叫主程式。關於指令分析的主頁代碼如下:
1 2 3 4 5 6 7 8 9 10 | if (process.argv.length === 4) {
let args = process.argv
console.log( '准备开始请求' + args[2] + '的' + args[3] + '职位数据' );
requsetCrwl.controlRequest(args[2], args[3])
} else if (process.argv.length === 3 && process.argv[2] === 'start' ) {
let arr = []
for (let i = 0; i 預先定義好的城市和職位數組如下:<p></p><pre class = "brush:php;toolbar:false" >{
"city" : [ "北京" , "上海" , "广州" , "深圳" , "杭州" , "南京" , "成都" , "西安" , "武汉" , "重庆" ],
"position" : [ "前端" , "java" , "php" , "ios" , "android" , "c++" , "python" , ".NET" ]
}
|
登入後複製
接下來就是爬蟲主程式部分的分析了。
分析頁面,找到請求位址
首先我們打開拉勾網首頁,輸入查詢資訊(例如node),然後查看控制台,找到相關的請求,如圖:

這個post請求
https://www.lagou.com/jobs/positionAjax.json?needAddtionalResult=false就是我們所需要的,透過三個請求參數來取得不同的數據,簡單的分析就可得知:參數
first是標註目前是否是第一頁,true為是,false為否;參數
pn是當前的頁碼;參數
kd是查詢輸入的內容。
透過superagent請求資料
首先需要明確得是,整個程式是異步的,我們需要用async.series來依序呼叫。
查看分析回傳的response:

可以看到content.positionResult.totalCount就是我們所需要的總頁數
我們用superagent直接呼叫post請求,控制台會提示以下資訊:
1 | { 'success' : False, 'msg' : '您操作太频繁,请稍后再访问' , 'clientIp' : '122.xxx.xxx.xxx' }
|
登入後複製
這其實是反爬蟲策略之一,我們只需要給其新增一個請求頭即可,請求頭的取得方式很簡單,如下:

然後在用superagent呼叫post請求,主要程式碼如下:
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 | (cb) => {
superagent
.post(`https:
.send({
'pn' : 1,
'kd' : position,
'first' : true
})
.set(options.options)
. end ((err, res) => {
if (err) throw err
let resObj = JSON.parse(res.text)
if (resObj.success === true) {
totalPage = resObj.content.positionResult.totalCount;
cb(null, totalPage);
} else {
console.log(`获取数据失败:${res.text}}`)
}
})
},
|
登入後複製
拿到總頁數後,我們就可以透過
總頁數/15取得到pn參數,循環產生所有url並存入urls中:
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 | (cb) => {
for (let i=0;Math. ceil (i<totalpage>有了所有的url,在想爬到所有的資料就不是難事了,繼續用superagent的post方法循環請求所有的url,每一次取得到資料後,在data目錄下建立json文件,將傳回的資料寫入。這裡看似簡單,但是有兩點要注意:<p></p>
<ol class = " list-paddingleft-2" >
<li>為了防止並發請求太多而導致被封IP:循環url時候需要使用async.mapLimit方法控制並發為3,每次請求完都要過兩秒在發送下一次的請求<p></p>
</li>
<li><p>在async.mapLimit的第四个参数中,需要通过判断调用主函数的第三个参数是否存在来区分一下是那种命令输入,因为对于<code>node index start</code>这个命令,我们使用得是async.mapSeries,每次调用主函数都传递了<code>(city, position, callback)</code>,所以如果是<code>node index start</code>的话,需要在每次获取数据完后将null传递回去,否则无法进行下一次循环</p></li>
</ol>
<p>主要代码如下:</p>
<pre class = "brush:php;toolbar:false" >
(cb) => {
async.mapLimit(urls, 3, (url, callback) => {
num++;
let page = url.split( '&' )[3].split( '=' )[1];
superagent
.post(url)
.send({
'pn' : totalPage,
'kd' : position,
'first' : false
})
.set(options.options)
. end ((err, res) => {
if (err) throw err
let resObj = JSON.parse(res.text)
if (resObj.success === true) {
console.log(`正在抓取第${page}页,当前并发数量:${num}`);
if (!fs.existsSync( './data' )) {
fs.mkdirSync( './data' );
}
fs.writeFile(`./data/${city}_${position}_${page}.json`, res.text, (err) => {
if (err) throw err;
setTimeout(() => {
num--;
console.log(`第${page}页写入成功`);
callback(null, 'success' );
}, 2000);
});
}
})
}, (err, result) => {
if (err) throw err;
if (arguments[2]) {
ok = 1;
}
cb(null, ok)
})
},
() => {
if (ok) {
setTimeout( function () {
console.log(`${city}的${position}数据请求完成`);
indexCallback(null);
}, 5000);
} else {
console.log(`${city}的${position}数据请求完成`);
}
}
|
登入後複製
导出的json文件如下:

json文件导出为excel
将json文件导出为excel有多种方式,我使用的是node-xlsx
这个node包,这个包需要将数据按照固定的格式传入,然后导出即可,所以我们首先做的就是先拼出其所需的数据格式:
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 | function exportExcel() {
let list = fs.readdirSync( './data' )
let dataArr = []
list.forEach((item, index) => {
let path = `./data/${item}`
let obj = fs.readFileSync(path, 'utf-8' )
let content = JSON.parse(obj).content.positionResult.result
let arr = [[ 'companyFullName' , 'createTime' , 'workYear' , 'education' , 'city' , 'positionName' , 'positionAdvantage' , 'companyLabelList' , 'salary' ]]
content.forEach((contentItem) => {
arr.push([contentItem.companyFullName, contentItem.phone, contentItem.workYear, contentItem.education, contentItem.city, contentItem.positionName, contentItem.positionAdvantage, contentItem.companyLabelList.join( ',' ), contentItem.salary])
})
dataArr[index] = {
data: arr,
name: path.split( './data/' )[1]
}
})
var buffer = xlsx.build(dataArr)
fs.writeFile( './result.xlsx' , buffer, function (err)
{
if (err)
throw err;
console.log( 'Write to xls has finished' );
}
);
}
|
登入後複製
导出的excel文件如下,每一页的数据都是一个sheet,比较清晰明了:

我们可以很清楚的从中看出目前西安.net的招聘情况,之后也可以考虑用更形象的图表方式展示爬到的数据,应该会更加直观!
总结
其实整个爬虫过程并不复杂,注意就是注意的小点很多,比如async的各个方法的使用以及导出设置header等,总之,也是收获满满哒!
源码
gitbug地址: https://github.com/fighting12...
以上就是本文的全部内容,希望对大家的学习有所帮助,更多相关内容请关注PHP中文网!
相关推荐:
react 官网动画库(react-transition-group)的新写法
原生JS基于window.scrollTo()封装垂直滚动动画工具函数
NodeList 和 HTMLCollection 和 Array的解析
以上是node爬取拉勾網資料並匯出為excel文件的詳細內容。更多資訊請關注PHP中文網其他相關文章!