Rumah > pembangunan bahagian belakang > Tutorial Python > Mengikis Web dengan Sup Cantik dan Mengikis: Mengekstrak Data Dengan Cekap dan Bertanggungjawab

Mengikis Web dengan Sup Cantik dan Mengikis: Mengekstrak Data Dengan Cekap dan Bertanggungjawab

Patricia Arquette
Lepaskan: 2025-01-05 07:18:39
asal
991 orang telah melayarinya

Web Scraping with Beautiful Soup and Scrapy: Extracting Data Efficiently and Responsibly

Dalam era digital, data ialah aset yang berharga dan pengikisan web telah menjadi alat penting untuk mengekstrak maklumat daripada tapak web. Artikel ini meneroka dua perpustakaan Python yang popular untuk mengikis web: Sup Cantik dan Scrapy. Kami akan menyelidiki ciri mereka, menyediakan contoh kod kerja langsung dan membincangkan amalan terbaik untuk mengikis web yang bertanggungjawab.

Pengenalan kepada Web Scraping

Pengikisan web ialah proses automatik untuk mengekstrak data daripada tapak web. Ia digunakan secara meluas dalam pelbagai bidang, termasuk analisis data, pembelajaran mesin dan analisis kompetitif. Walau bagaimanapun, pengikisan web mesti dilakukan dengan penuh tanggungjawab untuk menghormati syarat perkhidmatan tapak web dan sempadan undang-undang.

Sup Cantik: Perpustakaan Mesra Pemula

Beautiful Soup ialah perpustakaan Python yang direka untuk tugas mengikis web yang cepat dan mudah. Ia amat berguna untuk menghuraikan dokumen HTML dan XML dan mengekstrak data daripadanya. Beautiful Soup menyediakan simpulan bahasa Pythonic untuk mengulang, mencari dan mengubah suai pokok parse.

Ciri-ciri Utama

  • Kemudahan Penggunaan: Sup Cantik mesra pemula dan mudah dipelajari.
  • Penghuraian Fleksibel: Ia boleh menghuraikan dokumen HTML dan XML, malah dokumen yang mempunyai penanda yang salah.
  • Integrasi: Berfungsi dengan baik dengan perpustakaan Python lain seperti permintaan untuk mengambil halaman web.

Memasang

Untuk bermula dengan Beautiful Soup, anda perlu memasangnya bersama-sama dengan perpustakaan permintaan:

pip install beautifulsoup4 requests
Salin selepas log masuk
Salin selepas log masuk

Contoh Asas

Mari kita ekstrak tajuk artikel daripada halaman blog contoh:

import requests
from bs4 import BeautifulSoup

# Fetch the web page
url = 'https://example-blog.com'
response = requests.get(url)
# Check if the request was successful
if response.status_code == 200:
    # Parse the HTML content
    soup = BeautifulSoup(response.text, 'html.parser')
    # Extract article titles
    titles = soup.find_all('h1', class_='entry-title')
    # Check if titles were found
    if titles:
        for title in titles:
            # Extract and print the text of each title
            print(title.get_text(strip=True))
    else:
        print("No titles found. Please check the HTML structure and update the selector.")
else:
    print(f"Failed to retrieve the page. Status code: {response.status_code}")
Salin selepas log masuk
Salin selepas log masuk

Kelebihan

  • Kesederhanaan: Sesuai untuk projek kecil hingga sederhana.
  • Keteguhan: Mengendalikan HTML berformat buruk dengan anggun.

Scrapy: Rangka Kerja Mengikis Web yang Berkuasa

Scrapy ialah rangka kerja mengikis web komprehensif yang menyediakan alat untuk pengekstrakan data berskala besar. Ia direka bentuk untuk prestasi dan fleksibiliti, menjadikannya sesuai untuk projek yang kompleks.

Ciri-ciri Utama

  • Kelajuan dan Kecekapan: Sokongan terbina dalam untuk permintaan tak segerak.
  • Keterluasan: Sangat boleh disesuaikan dengan perisian tengah dan saluran paip.
  • Eksport Data Terbina dalam: Menyokong pengeksportan data dalam pelbagai format seperti JSON, CSV dan XML.

Memasang

Pasang Scrapy menggunakan pip:

pip install scrapy
Salin selepas log masuk
Salin selepas log masuk

Contoh Asas

Untuk menunjukkan Scrapy, kami akan mencipta labah-labah untuk mengikis petikan daripada tapak web:

  • Buat Projek Scrapy:
pip install beautifulsoup4 requests
Salin selepas log masuk
Salin selepas log masuk
  • Tentukan Labah-labah: Buat fail quotes_spider.py dalam direktori spiders:
import requests
from bs4 import BeautifulSoup

# Fetch the web page
url = 'https://example-blog.com'
response = requests.get(url)
# Check if the request was successful
if response.status_code == 200:
    # Parse the HTML content
    soup = BeautifulSoup(response.text, 'html.parser')
    # Extract article titles
    titles = soup.find_all('h1', class_='entry-title')
    # Check if titles were found
    if titles:
        for title in titles:
            # Extract and print the text of each title
            print(title.get_text(strip=True))
    else:
        print("No titles found. Please check the HTML structure and update the selector.")
else:
    print(f"Failed to retrieve the page. Status code: {response.status_code}")
Salin selepas log masuk
Salin selepas log masuk
  • Jalankan Labah-labah: Jalankan labah-labah untuk mengikis data:
pip install scrapy
Salin selepas log masuk
Salin selepas log masuk

Kelebihan

  • Skalabiliti: Mengendalikan projek mengikis berskala besar dengan cekap.
  • Ciri Terbina dalam: Menawarkan ciri teguh seperti penjadualan permintaan dan saluran paip data.

Amalan Terbaik untuk Mengikis Web Bertanggungjawab

Walaupun pengikisan web adalah alat yang berkuasa, adalah penting untuk menggunakannya secara bertanggungjawab:

  • Hormati Robots.txt: Sentiasa semak fail robots.txt tapak web untuk memahami halaman mana yang boleh dikikis.
  • Penghadan Kadar: Laksanakan kelewatan antara permintaan untuk mengelakkan pelayan yang membebankan.
  • Putaran Ejen Pengguna: Gunakan rentetan ejen pengguna yang berbeza untuk meniru gelagat pengguna sebenar.
  • Pematuhan Undang-undang: Pastikan pematuhan terhadap keperluan undang-undang dan syarat perkhidmatan tapak web.

Kesimpulan

Sup Cantik dan Scrapy ialah alat yang berkuasa untuk mengikis web, masing-masing dengan kekuatannya. Beautiful Soup sesuai untuk pemula dan projek kecil, manakala Scrapy sesuai untuk tugas mengikis berskala besar dan kompleks. Dengan mengikuti amalan terbaik, anda boleh mengekstrak data dengan cekap dan bertanggungjawab, membuka kunci cerapan berharga

nota: Kandungan bantuan AI

Atas ialah kandungan terperinci Mengikis Web dengan Sup Cantik dan Mengikis: Mengekstrak Data Dengan Cekap dan Bertanggungjawab. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!

sumber:dev.to
Kenyataan Laman Web ini
Kandungan artikel ini disumbangkan secara sukarela oleh netizen, dan hak cipta adalah milik pengarang asal. Laman web ini tidak memikul tanggungjawab undang-undang yang sepadan. Jika anda menemui sebarang kandungan yang disyaki plagiarisme atau pelanggaran, sila hubungi admin@php.cn
Artikel terbaru oleh pengarang
Tutorial Popular
Lagi>
Muat turun terkini
Lagi>
kesan web
Kod sumber laman web
Bahan laman web
Templat hujung hadapan