首頁 後端開發 Python教學 Python中的爬蟲實戰:豆瓣圖書爬蟲

Python中的爬蟲實戰:豆瓣圖書爬蟲

Jun 11, 2023 pm 01:33 PM
python 爬蟲 豆瓣

Python是當今最熱門的程式語言之一,在不同的領域都得到了廣泛的應用,如資料科學、人工智慧、網路安全等。其中,Python在網路爬蟲領域表現出色,許多企業和個人利用Python進行資料收集和分析。本篇文章將介紹如何使用Python爬取豆瓣圖書信息,幫助讀者初步了解Python網絡爬蟲的實現方法和技術。

首先,對於豆瓣圖書資訊爬蟲,我們需要用到Python中的兩個重要的庫:urllib和beautifulsoup4。其中,urllib庫主要用於網路請求和資料讀取,而beautifulsoup4庫則可用於解析HTML和XML等結構化文檔,從而提取所需的資訊。在使用這些庫之前,我們需要先安裝它們,使用pip命令即可完成安裝。安裝完成後,就可以開始我們的實戰了。

  1. 確定爬取目標

在使用Python進行爬蟲時,首先需要先明確爬取目標。對於本篇文章而言,我們的目標是爬取豆瓣圖書的基本訊息,如書名、作者、出版社、出版日期、評分等。此外,我們還需要爬取多頁圖書資訊。

  1. 分析HTML結構

確定了爬取目標之後,我們需要進一步分析豆瓣圖書的HTML結構,以便確定所需資訊的位置和特徵。我們可以使用Chrome或Firefox等瀏覽器自帶的開發者工具來查看頁面原始碼。透過觀察HTML結構,我們可以找到需要爬取的標籤和屬性,進而編寫Python程式碼進行實作。

  1. 寫程式

接下來,我們在Python中寫豆瓣圖書爬蟲程式碼。程式碼的核心是:

  • 傳送網路請求並取得HTML頁面;
  • 解析HTML文檔,擷取所需資訊;
  • ##儲存資料。
以下是完整程式碼:

import urllib.request
from bs4 import BeautifulSoup

url = 'https://book.douban.com/top250'
books = []

def get_html(url):
    headers = {'User-Agent': 'Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/34.0.1847.131 Safari/537.36'}
    req = urllib.request.Request(url, headers=headers)
    response = urllib.request.urlopen(req)
    html = response.read().decode('utf-8')
    return html

def parse_html(html):
    soup = BeautifulSoup(html,'html.parser')
    book_list_soup = soup.find('div', attrs={'class': 'article'})
    for book_soup in book_list_soup.find_all('table'):
        book_title_soup = book_soup.find('div', attrs={'class': 'pl2'})
        book_title_link = book_title_soup.find('a')
        book_title = book_title_link.get('title')
        book_url = book_title_link.get('href')
        book_info_soup = book_soup.find('p', attrs={'class': 'pl'})
        book_info = book_info_soup.string.strip()
        book_rating_num_soup = book_soup.find('span', attrs={'class': 'rating_nums'})
        book_rating_num = book_rating_num_soup.string.strip()
        book_rating_people_num_span_soup = book_soup.find('span', attrs={'class': 'pl'})
        book_rating_people_num = book_rating_people_num_span_soup.string.strip()[1:-4]
        book_author_and_publish_soup = book_soup.find('p',attrs={'class':'pl'}).next_sibling.string.strip()
        book_author_and_publish = book_author_and_publish_soup.split('/')
        book_author = book_author_and_publish[0]
        book_publish = book_author_and_publish[-3]
        book_year = book_author_and_publish[-2]
        books.append({
        'title': book_title,
        'url': book_url,
        'info': book_info,
        'author':book_author,
        'publish':book_publish,
        'year':book_year,
        'rating_num':book_rating_num,
        'rating_people_num':book_rating_people_num
        })

def save_data():
    with open('douban_top250.txt','w',encoding='utf-8') as f:
        for book in books:
            f.write('书名:{0}
'.format(book['title']))
            f.write('链接:{0}
'.format(book['url']))
            f.write('信息:{0}
'.format(book['info']))
            f.write('作者:{0}
'.format(book['author']))
            f.write('出版社:{0}
'.format(book['publish']))
            f.write('出版年份:{0}
'.format(book['year']))
            f.write('评分:{0}
'.format(book['rating_num']))
            f.write('评分人数:{0}

'.format(book['rating_people_num']))

if __name__ == '__main__':
    for i in range(10):
        start = i*25
        url = 'https://book.douban.com/top250?start={0}'.format(start)
        html = get_html(url)
        parse_html(html)
    save_data()
登入後複製

程式碼解析:

#首先,我們定義一個主網址url和一個空列表books(用於儲存圖書資訊) 。接著,我們編寫get_html函數,用於發送請求並取得HTML頁面。在該函數中,我們設定了請求頭headers,以模擬瀏覽器發送請求,從而避免被網站封鎖。我們使用urllib庫的Request方法,將請求頭和網址封裝到一個物件中,然後使用urllib庫的urlopen方法,發送網路請求並取得頁面,最後使用read和decode方法,將頁面內容轉換成utf-8格式的字串。

我們寫parse_html函數,用來解析HTML文檔,提取所需資訊。在這個函數中,我們使用beautifulsoup4函式庫的find和find_all方法,找出HTML頁面中符合要求的標籤和屬性。具體地,我們透過觀察豆瓣圖書的HTML結構,找到了每本圖書所在的table標籤和對應的書名、連結、資訊和評分等信息,並編寫了提取這些數據的程式碼。其中,我們使用了strip和split方法,對字串進行處理,以去除多餘空白字元和分割字串。

最後,我們編寫了save_data函數,用於將提取的圖書資訊儲存到本地文件中。在該函數中,我們使用Python內建函數open,開啟一個文字文件,以寫入模式寫入檔案內容,並使用format方法,將每本圖書的相關資訊格式化為字串,寫入檔案。注意,我們需要在檔案名稱後面加上編碼方式encoding='utf-8',以確保檔案內容不會出現亂碼。

在主程式中,我們使用for循環,爬取豆瓣圖書的前250本圖書。為此,我們需要每頁爬取25本圖書,共爬取10頁。在每個循環中,我們根據目前頁碼計算所需的url,並呼叫get_html函數,取得HTML頁面。接著,我們將頁面傳遞給parse_html函數,解析頁面並提取所需資訊。最後,我們呼叫save_data函數,將所有圖書資訊保存到本地文件中。

    執行程式碼
在完成程式碼撰寫後,我們可以在命令列(Windows系統)或終端機(MacOS或Linux系統)中進入程式碼所在目錄,並執行指令python3 爬蟲腳本名稱.py,即可執行該Python網路爬蟲。在程式運行期間,我們可以觀察程式的輸出訊息,以判斷程式是否正確執行。程式執行完畢後,我們可以檢查本機檔案douban_top250.txt,確認是否已成功儲存資料。

總結

透過本篇文章的介紹,我們初步了解了Python網路爬蟲的實作方法和技術。具體而言,我們使用Python中的urllib和beautifulsoup4庫,針對豆瓣圖書網站的HTML結構,編寫了爬取豆瓣圖書資訊的Python程序,成功實現了資料收集和儲存。此外,在實際應用中,我們需要了解一些網路爬蟲的注意事項,如不要過度頻繁地向同一網站發送請求,以避免被封IP位址。

以上是Python中的爬蟲實戰:豆瓣圖書爬蟲的詳細內容。更多資訊請關注PHP中文網其他相關文章!

本網站聲明
本文內容由網友自願投稿,版權歸原作者所有。本站不承擔相應的法律責任。如發現涉嫌抄襲或侵權的內容,請聯絡admin@php.cn

熱AI工具

Undresser.AI Undress

Undresser.AI Undress

人工智慧驅動的應用程序,用於創建逼真的裸體照片

AI Clothes Remover

AI Clothes Remover

用於從照片中去除衣服的線上人工智慧工具。

Undress AI Tool

Undress AI Tool

免費脫衣圖片

Clothoff.io

Clothoff.io

AI脫衣器

Video Face Swap

Video Face Swap

使用我們完全免費的人工智慧換臉工具,輕鬆在任何影片中換臉!

熱工具

記事本++7.3.1

記事本++7.3.1

好用且免費的程式碼編輯器

SublimeText3漢化版

SublimeText3漢化版

中文版,非常好用

禪工作室 13.0.1

禪工作室 13.0.1

強大的PHP整合開發環境

Dreamweaver CS6

Dreamweaver CS6

視覺化網頁開發工具

SublimeText3 Mac版

SublimeText3 Mac版

神級程式碼編輯軟體(SublimeText3)

PHP和Python:解釋了不同的範例 PHP和Python:解釋了不同的範例 Apr 18, 2025 am 12:26 AM

PHP主要是過程式編程,但也支持面向對象編程(OOP);Python支持多種範式,包括OOP、函數式和過程式編程。 PHP適合web開發,Python適用於多種應用,如數據分析和機器學習。

在PHP和Python之間進行選擇:指南 在PHP和Python之間進行選擇:指南 Apr 18, 2025 am 12:24 AM

PHP適合網頁開發和快速原型開發,Python適用於數據科學和機器學習。 1.PHP用於動態網頁開發,語法簡單,適合快速開發。 2.Python語法簡潔,適用於多領域,庫生態系統強大。

PHP和Python:深入了解他們的歷史 PHP和Python:深入了解他們的歷史 Apr 18, 2025 am 12:25 AM

PHP起源於1994年,由RasmusLerdorf開發,最初用於跟踪網站訪問者,逐漸演變為服務器端腳本語言,廣泛應用於網頁開發。 Python由GuidovanRossum於1980年代末開發,1991年首次發布,強調代碼可讀性和簡潔性,適用於科學計算、數據分析等領域。

Python vs. JavaScript:學習曲線和易用性 Python vs. JavaScript:學習曲線和易用性 Apr 16, 2025 am 12:12 AM

Python更適合初學者,學習曲線平緩,語法簡潔;JavaScript適合前端開發,學習曲線較陡,語法靈活。 1.Python語法直觀,適用於數據科學和後端開發。 2.JavaScript靈活,廣泛用於前端和服務器端編程。

vs code 可以在 Windows 8 中運行嗎 vs code 可以在 Windows 8 中運行嗎 Apr 15, 2025 pm 07:24 PM

VS Code可以在Windows 8上運行,但體驗可能不佳。首先確保系統已更新到最新補丁,然後下載與系統架構匹配的VS Code安裝包,按照提示安裝。安裝後,注意某些擴展程序可能與Windows 8不兼容,需要尋找替代擴展或在虛擬機中使用更新的Windows系統。安裝必要的擴展,檢查是否正常工作。儘管VS Code在Windows 8上可行,但建議升級到更新的Windows系統以獲得更好的開發體驗和安全保障。

sublime怎麼運行代碼python sublime怎麼運行代碼python Apr 16, 2025 am 08:48 AM

在 Sublime Text 中運行 Python 代碼,需先安裝 Python 插件,再創建 .py 文件並編寫代碼,最後按 Ctrl B 運行代碼,輸出會在控制台中顯示。

visual studio code 可以用於 python 嗎 visual studio code 可以用於 python 嗎 Apr 15, 2025 pm 08:18 PM

VS Code 可用於編寫 Python,並提供許多功能,使其成為開發 Python 應用程序的理想工具。它允許用戶:安裝 Python 擴展,以獲得代碼補全、語法高亮和調試等功能。使用調試器逐步跟踪代碼,查找和修復錯誤。集成 Git,進行版本控制。使用代碼格式化工具,保持代碼一致性。使用 Linting 工具,提前發現潛在問題。

vscode在哪寫代碼 vscode在哪寫代碼 Apr 15, 2025 pm 09:54 PM

在 Visual Studio Code(VSCode)中編寫代碼簡單易行,只需安裝 VSCode、創建項目、選擇語言、創建文件、編寫代碼、保存並運行即可。 VSCode 的優點包括跨平台、免費開源、強大功能、擴展豐富,以及輕量快速。

See all articles