Rumah pembangunan bahagian belakang Tutorial Python How Beautiful Soup digunakan untuk mengekstrak data daripada Web Awam

How Beautiful Soup digunakan untuk mengekstrak data daripada Web Awam

Aug 02, 2024 am 09:20 AM

How Beautiful Soup is used to extract data out of the Public Web

Beautiful Soup ialah perpustakaan Python yang digunakan untuk mengikis data daripada halaman web. Ia mencipta pokok parse untuk menghuraikan dokumen HTML dan XML, menjadikannya mudah untuk mengekstrak maklumat yang dikehendaki.

Sup Cantik menyediakan beberapa fungsi utama untuk mengikis web:

  1. Menavigasi Pokok Parse: Anda boleh menavigasi pepohon parse dengan mudah dan mencari elemen, teg dan atribut.
  2. Mengubah suai Pokok Parse: Ia membenarkan anda mengubah suai pepohon parse, termasuk menambah, mengalih keluar dan mengemas kini teg dan atribut.
  3. Pemformatan Output: Anda boleh menukar semula pokok parse kepada rentetan, menjadikannya mudah untuk menyimpan kandungan yang diubah suai.

Untuk menggunakan Beautiful Soup, anda perlu memasang perpustakaan bersama-sama dengan parser seperti lxml atau html.parser. Anda boleh memasangnya menggunakan pip

#Install Beautiful Soup using pip.
pip install beautifulsoup4 lxml
Salin selepas log masuk

Mengendalikan Penomboran

Apabila berurusan dengan tapak web yang memaparkan kandungan merentas berbilang halaman, pengendalian penomboran adalah penting untuk mengikis semua data.

  1. Kenal pasti Struktur Penomboran: Periksa tapak web untuk memahami cara penomboran distrukturkan (cth., butang halaman seterusnya atau pautan bernombor).
  2. Lelaran Pada Halaman: Gunakan gelung untuk melelaran setiap halaman dan mengikis data.
  3. Kemas kini URL atau Parameter: Ubah suai URL atau parameter untuk mengambil kandungan halaman seterusnya.
import requests
from bs4 import BeautifulSoup

base_url = 'https://example-blog.com/page/'
page_number = 1
all_titles = []

while True:
    # Construct the URL for the current page
    url = f'{base_url}{page_number}'
    response = requests.get(url)
    soup = BeautifulSoup(response.content, 'html.parser')

    # Find all article titles on the current page
    titles = soup.find_all('h2', class_='article-title')
    if not titles:
        break  # Exit the loop if no titles are found (end of pagination)

    # Extract and store the titles
    for title in titles:
        all_titles.append(title.get_text())

    # Move to the next page
    page_number += 1

# Print all collected titles
for title in all_titles:
    print(title)
Salin selepas log masuk

Mengekstrak Data Bersarang

Kadangkala, data yang anda perlu ekstrak bersarang dalam berbilang lapisan teg. Begini cara mengendalikan pengekstrakan data bersarang.

  1. Navigasi ke Teg Induk: Cari teg induk yang mengandungi data bersarang.
  2. Ekstrak Teg Bersarang: Dalam setiap teg induk, cari dan ekstrak teg bersarang.
  3. Lelaran Melalui Teg Bersarang: Lelaran melalui teg bersarang untuk mengekstrak maklumat yang diperlukan.
import requests
from bs4 import BeautifulSoup

url = 'https://example-blog.com/post/123'
response = requests.get(url)
soup = BeautifulSoup(response.content, 'html.parser')

# Find the comments section
comments_section = soup.find('div', class_='comments')

# Extract individual comments
comments = comments_section.find_all('div', class_='comment')

for comment in comments:
    # Extract author and content from each comment
    author = comment.find('span', class_='author').get_text()
    content = comment.find('p', class_='content').get_text()
    print(f'Author: {author}\nContent: {content}\n')

Salin selepas log masuk

Mengendalikan Permintaan AJAX

Banyak tapak web moden menggunakan AJAX untuk memuatkan data secara dinamik. Mengendalikan AJAX memerlukan teknik yang berbeza, seperti memantau permintaan rangkaian menggunakan alat pembangun penyemak imbas dan mereplikasi permintaan tersebut dalam pengikis anda.

import requests
from bs4 import BeautifulSoup

# URL to the API endpoint providing the AJAX data
ajax_url = 'https://example.com/api/data?page=1'
response = requests.get(ajax_url)
data = response.json()

# Extract and print data from the JSON response
for item in data['results']:
    print(item['field1'], item['field2'])

Salin selepas log masuk

Risiko Pengikisan Web

Pengikisan web memerlukan pertimbangan yang teliti terhadap risiko undang-undang, teknikal dan etika. Dengan melaksanakan perlindungan yang sesuai, anda boleh mengurangkan risiko ini dan menjalankan pengikisan web secara bertanggungjawab dan berkesan.

  • Pelanggaran Syarat Perkhidmatan: Banyak tapak web secara jelas melarang pengikisan dalam Syarat Perkhidmatan (ToS) mereka. Melanggar syarat ini boleh membawa kepada tindakan undang-undang.
  • Isu Harta Intelek: Mengikis kandungan tanpa kebenaran boleh melanggar hak harta intelek, yang membawa kepada pertikaian undang-undang.
  • Penyekatan IP: Tapak web mungkin mengesan dan menyekat alamat IP yang menunjukkan tingkah laku mengikis.
  • Larangan Akaun: Jika pengikisan dilakukan pada tapak web yang memerlukan pengesahan pengguna, akaun yang digunakan untuk mengikis mungkin akan diharamkan.

Beautiful Soup ialah perpustakaan berkuasa yang memudahkan proses mengikis web dengan menyediakan antara muka yang mudah digunakan untuk menavigasi dan mencari dokumen HTML dan XML. Ia boleh mengendalikan pelbagai tugas penghuraian, menjadikannya alat penting untuk sesiapa sahaja yang ingin mengekstrak data daripada web.

Atas ialah kandungan terperinci How Beautiful Soup digunakan untuk mengekstrak data daripada Web Awam. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!

Kenyataan Laman Web ini
Kandungan artikel ini disumbangkan secara sukarela oleh netizen, dan hak cipta adalah milik pengarang asal. Laman web ini tidak memikul tanggungjawab undang-undang yang sepadan. Jika anda menemui sebarang kandungan yang disyaki plagiarisme atau pelanggaran, sila hubungi admin@php.cn

Alat AI Hot

Undresser.AI Undress

Undresser.AI Undress

Apl berkuasa AI untuk mencipta foto bogel yang realistik

AI Clothes Remover

AI Clothes Remover

Alat AI dalam talian untuk mengeluarkan pakaian daripada foto.

Undress AI Tool

Undress AI Tool

Gambar buka pakaian secara percuma

Clothoff.io

Clothoff.io

Penyingkiran pakaian AI

AI Hentai Generator

AI Hentai Generator

Menjana ai hentai secara percuma.

Artikel Panas

R.E.P.O. Kristal tenaga dijelaskan dan apa yang mereka lakukan (kristal kuning)
2 minggu yang lalu By 尊渡假赌尊渡假赌尊渡假赌
Repo: Cara menghidupkan semula rakan sepasukan
4 minggu yang lalu By 尊渡假赌尊渡假赌尊渡假赌
Hello Kitty Island Adventure: Cara mendapatkan biji gergasi
3 minggu yang lalu By 尊渡假赌尊渡假赌尊渡假赌

Alat panas

Notepad++7.3.1

Notepad++7.3.1

Editor kod yang mudah digunakan dan percuma

SublimeText3 versi Cina

SublimeText3 versi Cina

Versi Cina, sangat mudah digunakan

Hantar Studio 13.0.1

Hantar Studio 13.0.1

Persekitaran pembangunan bersepadu PHP yang berkuasa

Dreamweaver CS6

Dreamweaver CS6

Alat pembangunan web visual

SublimeText3 versi Mac

SublimeText3 versi Mac

Perisian penyuntingan kod peringkat Tuhan (SublimeText3)

Cara Menggunakan Python untuk Mencari Pengagihan Zipf Fail Teks Cara Menggunakan Python untuk Mencari Pengagihan Zipf Fail Teks Mar 05, 2025 am 09:58 AM

Cara Menggunakan Python untuk Mencari Pengagihan Zipf Fail Teks

Cara memuat turun fail di python Cara memuat turun fail di python Mar 01, 2025 am 10:03 AM

Cara memuat turun fail di python

Penapisan gambar di python Penapisan gambar di python Mar 03, 2025 am 09:44 AM

Penapisan gambar di python

Bagaimana saya menggunakan sup yang indah untuk menghuraikan html? Bagaimana saya menggunakan sup yang indah untuk menghuraikan html? Mar 10, 2025 pm 06:54 PM

Bagaimana saya menggunakan sup yang indah untuk menghuraikan html?

Cara Bekerja Dengan Dokumen PDF Menggunakan Python Cara Bekerja Dengan Dokumen PDF Menggunakan Python Mar 02, 2025 am 09:54 AM

Cara Bekerja Dengan Dokumen PDF Menggunakan Python

Cara Cache Menggunakan Redis dalam Aplikasi Django Cara Cache Menggunakan Redis dalam Aplikasi Django Mar 02, 2025 am 10:10 AM

Cara Cache Menggunakan Redis dalam Aplikasi Django

Memperkenalkan Toolkit Bahasa Alam (NLTK) Memperkenalkan Toolkit Bahasa Alam (NLTK) Mar 01, 2025 am 10:05 AM

Memperkenalkan Toolkit Bahasa Alam (NLTK)

Bagaimana untuk melakukan pembelajaran mendalam dengan Tensorflow atau Pytorch? Bagaimana untuk melakukan pembelajaran mendalam dengan Tensorflow atau Pytorch? Mar 10, 2025 pm 06:52 PM

Bagaimana untuk melakukan pembelajaran mendalam dengan Tensorflow atau Pytorch?

See all articles