首頁 > 後端開發 > Golang > 抓取網頁時如何限制 HTTP GET 請求的資料消耗?

抓取網頁時如何限制 HTTP GET 請求的資料消耗?

Barbara Streisand
發布: 2024-12-05 02:04:13
原創
732 人瀏覽過

How Can I Restrict Data Consumption in HTTP GET Requests When Scraping Web Pages?

限制HTTP GET 請求中的資料消耗

抓取HTML 頁面時,限制HTTP GET 中接收的資料量可能會有好處避免潛在瓶頸的請求。這在處理傳遞過多資料的 URL 時尤其重要。

要實現此目的,請考慮使用 io.LimitedReader 或 io.LimitReader。這些工具使您能夠控制從回應中讀取的最大位元組數。

使用io.LimitedReader:

limitedReader := &io.LimitedReader{R: response.Body, N: limit}
body, err := io.ReadAll(limitedReader)
登入後複製

使用io.LimitReader:

body, err := io.ReadAll(io.LimitReader(response.Body, limit))
登入後複製
使用io.LimitReader:

使用io.LimitReader: 使用io.LimitReader:

以上是抓取網頁時如何限制 HTTP GET 請求的資料消耗?的詳細內容。更多資訊請關注PHP中文網其他相關文章!

來源:php.cn
本網站聲明
本文內容由網友自願投稿,版權歸原作者所有。本站不承擔相應的法律責任。如發現涉嫌抄襲或侵權的內容,請聯絡admin@php.cn
作者最新文章
熱門教學
更多>
最新下載
更多>
網站特效
網站源碼
網站素材
前端模板