


How Beautiful Soup digunakan untuk mengekstrak data daripada Web Awam
Beautiful Soup ialah perpustakaan Python yang digunakan untuk mengikis data daripada halaman web. Ia mencipta pokok parse untuk menghuraikan dokumen HTML dan XML, menjadikannya mudah untuk mengekstrak maklumat yang dikehendaki.
Sup Cantik menyediakan beberapa fungsi utama untuk mengikis web:
- Menavigasi Pokok Parse: Anda boleh menavigasi pepohon parse dengan mudah dan mencari elemen, teg dan atribut.
- Mengubah suai Pokok Parse: Ia membenarkan anda mengubah suai pepohon parse, termasuk menambah, mengalih keluar dan mengemas kini teg dan atribut.
- Pemformatan Output: Anda boleh menukar semula pokok parse kepada rentetan, menjadikannya mudah untuk menyimpan kandungan yang diubah suai.
Untuk menggunakan Beautiful Soup, anda perlu memasang perpustakaan bersama-sama dengan parser seperti lxml atau html.parser. Anda boleh memasangnya menggunakan pip
#Install Beautiful Soup using pip. pip install beautifulsoup4 lxml
Mengendalikan Penomboran
Apabila berurusan dengan tapak web yang memaparkan kandungan merentas berbilang halaman, pengendalian penomboran adalah penting untuk mengikis semua data.
- Kenal pasti Struktur Penomboran: Periksa tapak web untuk memahami cara penomboran distrukturkan (cth., butang halaman seterusnya atau pautan bernombor).
- Lelaran Pada Halaman: Gunakan gelung untuk melelaran setiap halaman dan mengikis data.
- Kemas kini URL atau Parameter: Ubah suai URL atau parameter untuk mengambil kandungan halaman seterusnya.
import requests from bs4 import BeautifulSoup base_url = 'https://example-blog.com/page/' page_number = 1 all_titles = [] while True: # Construct the URL for the current page url = f'{base_url}{page_number}' response = requests.get(url) soup = BeautifulSoup(response.content, 'html.parser') # Find all article titles on the current page titles = soup.find_all('h2', class_='article-title') if not titles: break # Exit the loop if no titles are found (end of pagination) # Extract and store the titles for title in titles: all_titles.append(title.get_text()) # Move to the next page page_number += 1 # Print all collected titles for title in all_titles: print(title)
Mengekstrak Data Bersarang
Kadangkala, data yang anda perlu ekstrak bersarang dalam berbilang lapisan teg. Begini cara mengendalikan pengekstrakan data bersarang.
- Navigasi ke Teg Induk: Cari teg induk yang mengandungi data bersarang.
- Ekstrak Teg Bersarang: Dalam setiap teg induk, cari dan ekstrak teg bersarang.
- Lelaran Melalui Teg Bersarang: Lelaran melalui teg bersarang untuk mengekstrak maklumat yang diperlukan.
import requests from bs4 import BeautifulSoup url = 'https://example-blog.com/post/123' response = requests.get(url) soup = BeautifulSoup(response.content, 'html.parser') # Find the comments section comments_section = soup.find('div', class_='comments') # Extract individual comments comments = comments_section.find_all('div', class_='comment') for comment in comments: # Extract author and content from each comment author = comment.find('span', class_='author').get_text() content = comment.find('p', class_='content').get_text() print(f'Author: {author}\nContent: {content}\n')
Mengendalikan Permintaan AJAX
Banyak tapak web moden menggunakan AJAX untuk memuatkan data secara dinamik. Mengendalikan AJAX memerlukan teknik yang berbeza, seperti memantau permintaan rangkaian menggunakan alat pembangun penyemak imbas dan mereplikasi permintaan tersebut dalam pengikis anda.
import requests from bs4 import BeautifulSoup # URL to the API endpoint providing the AJAX data ajax_url = 'https://example.com/api/data?page=1' response = requests.get(ajax_url) data = response.json() # Extract and print data from the JSON response for item in data['results']: print(item['field1'], item['field2'])
Risiko Pengikisan Web
Pengikisan web memerlukan pertimbangan yang teliti terhadap risiko undang-undang, teknikal dan etika. Dengan melaksanakan perlindungan yang sesuai, anda boleh mengurangkan risiko ini dan menjalankan pengikisan web secara bertanggungjawab dan berkesan.
- Pelanggaran Syarat Perkhidmatan: Banyak tapak web secara jelas melarang pengikisan dalam Syarat Perkhidmatan (ToS) mereka. Melanggar syarat ini boleh membawa kepada tindakan undang-undang.
- Isu Harta Intelek: Mengikis kandungan tanpa kebenaran boleh melanggar hak harta intelek, yang membawa kepada pertikaian undang-undang.
- Penyekatan IP: Tapak web mungkin mengesan dan menyekat alamat IP yang menunjukkan tingkah laku mengikis.
- Larangan Akaun: Jika pengikisan dilakukan pada tapak web yang memerlukan pengesahan pengguna, akaun yang digunakan untuk mengikis mungkin akan diharamkan.
Beautiful Soup ialah perpustakaan berkuasa yang memudahkan proses mengikis web dengan menyediakan antara muka yang mudah digunakan untuk menavigasi dan mencari dokumen HTML dan XML. Ia boleh mengendalikan pelbagai tugas penghuraian, menjadikannya alat penting untuk sesiapa sahaja yang ingin mengekstrak data daripada web.
Atas ialah kandungan terperinci How Beautiful Soup digunakan untuk mengekstrak data daripada Web Awam. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!

Alat AI Hot

Undresser.AI Undress
Apl berkuasa AI untuk mencipta foto bogel yang realistik

AI Clothes Remover
Alat AI dalam talian untuk mengeluarkan pakaian daripada foto.

Undress AI Tool
Gambar buka pakaian secara percuma

Clothoff.io
Penyingkiran pakaian AI

AI Hentai Generator
Menjana ai hentai secara percuma.

Artikel Panas

Alat panas

Notepad++7.3.1
Editor kod yang mudah digunakan dan percuma

SublimeText3 versi Cina
Versi Cina, sangat mudah digunakan

Hantar Studio 13.0.1
Persekitaran pembangunan bersepadu PHP yang berkuasa

Dreamweaver CS6
Alat pembangunan web visual

SublimeText3 versi Mac
Perisian penyuntingan kod peringkat Tuhan (SublimeText3)

Topik panas

Cara Menggunakan Python untuk Mencari Pengagihan Zipf Fail Teks

Bagaimana saya menggunakan sup yang indah untuk menghuraikan html?

Cara Bekerja Dengan Dokumen PDF Menggunakan Python

Cara Cache Menggunakan Redis dalam Aplikasi Django

Memperkenalkan Toolkit Bahasa Alam (NLTK)

Bagaimana untuk melakukan pembelajaran mendalam dengan Tensorflow atau Pytorch?
