怎麼用Node爬取網頁的資料並寫入Excel檔案?以下這篇文章透過一個實例來講解一下用Node.js爬取網頁的資料並產生Excel檔案的方法,希望對大家有幫助!
相信寶可夢是許多90後的童年回憶,身為程式設計師不只一次的也想做一款寶可夢遊戲,但做之前應該先要整理一下有多少寶可夢,他們的編號,名字,屬性等資訊整理出來,本期將用Node.js 簡單的實現一個從寶可夢網頁資料的爬取,到把這些資料產生Excel文件,直到做介面讀取Excel存取這些資料。
既然是爬取數據,那我們先找一個有寶可夢圖鑑數據的網頁,如下圖:
這個網站是用PHP寫的,前後都沒有做分離,所以我們不會讀介面來捕獲數據,我們使用crawler
庫,來捕獲網頁中的元素從而得到數據。事先說明一下,用 crawler
函式庫,好處是你可以用 jQuery
的方式在Node環境中捕捉元素。
安裝:
yarn add crawler
實作:
const Crawler = require("crawler"); const fs = require("fs") const { resolve } = require("path") let crawler = new Crawler({ timeout: 10000, jQuery: true, }); let crawler = new Crawler({ timeout: 10000, jQuery: true, }); function getPokemon() { let uri = "" // 宝可梦图鉴地址 let data = [] return new Promise((resolve, reject) => { crawler.queue({ uri, callback: (err, res, done) => { if (err) reject(err); let $ = res.$; try { let $tr = $(".roundy.eplist tr"); $tr.each((i, el) => { let $td = $(el).find("td"); let _code = $td.eq(1).text().split("\n")[0] let _name = $td.eq(3).text().split("\n")[0] let _attr = $td.eq(4).text().split("\n")[0] let _other = $td.eq(5).text().split("\n")[0] _attr = _other.indexOf("属性") != -1 ? _attr : `${_attr}+${_other}` if (_code) { data.push([_code, _name, _attr]) } }) done(); resolve(data) } catch (err) { done() reject(err) } } }) }) }
在產生實例的時候,還需要開啟jQuery
模式,然後,就可以使用 $
符了。而上述程式碼的中間部分的業務就是在捕獲元素爬取網頁中所需要的數據,使用起來和 jQuery API
一樣,這裡就不再贅述了 。
getPokemon().then(async data => { console.log(data) })
最後我們可以執行並列印一下傳過來的 data
數據,來驗證確實爬取到了格式也沒有錯誤。
既然剛才已經爬取到資料了,接下來,我們就將使用node -xlsx
函式庫,來完成把資料寫入並產生一個Excel 檔案中。
首先,我們先介紹一下,node-xlsx
是一個簡單的 excel 檔案解析器和產生器。由 TS 建構的一個依賴 SheetJS xlsx 模組來解析/建構 excel 工作表,所以,在一些參數配置上,兩者可以通用。
安裝:
yarn add node-xlsx
實作:
const xlsx = require("node-xlsx") getPokemon().then(async data => { let title = ["编号", "宝可梦", "属性"] let list = [{ name: "关都", data: [ title, ...data ] }]; const sheetOptions = { '!cols': [{ wch: 15 }, { wch: 20 }, { wch: 20 }] }; const buffer = await xlsx.build(list, { sheetOptions }) try { await fs.writeFileSync(resolve(__dirname, "data/pokemon.xlsx"), buffer, "utf8") } catch (error) { } })
其name
則是Excel檔案中的欄位名,而其中的data
# 類型是數組其也要傳入一個數組,構成一個二維數組,其表示從ABCDE.... 列開始排序傳入文字。同時,可以透過!cols
來設定列寬。第一個物件wch:10
則表示 第一列寬度為10 個字符,還有很多參數可以設置,可以參考 xlsx 庫 來學習這些配置項目。
最後,我們透過xlsx.build
方法來產生buffer
數據,最後用fs.writeFileSync
寫入或建立一個Excel 檔案中,為了方便查看,我在這裡存入了名叫data 的資料夾裡,此時,我們在data 資料夾就會發現多出一個叫pokemon.xlsx 的文件,打開它,資料還是那些,這樣把資料寫入到Excel的這步驟操作就完成了。
讀取Excel其實很容易甚至不用寫 fs
的讀取,用xlsx.parse
方法傳入檔案位址就能直接讀取到。
xlsx.parse(resolve(__dirname, "data/pokemon.xlsx"));
當然,我們為了驗證準確無誤,直接寫一個接口,看看能不能存取到資料。為了方便我直接用 express
框架來完成這件事。
先來安裝一下:
yarn add express
然後,再建立 express
服務,我這裡連接埠號碼就用3000了,就寫一個GET
請求把讀取Excel檔案的資料送出去就好。
const express = require("express") const app = express(); const listenPort = 3000; app.get("/pokemon",(req,res)=>{ let data = xlsx.parse(resolve(__dirname, "data/pokemon.xlsx")); res.send(data) }) app.listen(listenPort, () => { console.log(`Server running at http://localhost:${listenPort}/`) })
最後,我這裡用 postman
訪問接口,就可以清楚的看到,我們從爬取到存入表格所有的寶可夢數據都接收到了。
如你所見,本文以寶可夢為例,來學習怎麼用Node.js爬取網頁的數據,怎麼把數據寫入Excel文件,以及怎麼讀取到Excel檔案的資料這三個問題,其實實現難度並不大,但有些時候蠻實用的,如果擔心忘記可以收藏起來喲~
更多node相關知識,請訪問:nodejs 教程!
以上是node爬取資料實例:抓取寶可夢圖鑑並產生Excel文件的詳細內容。更多資訊請關注PHP中文網其他相關文章!