Rumah > pembangunan bahagian belakang > Tutorial Python > Analisis storan data halaman dan fungsi eksport pelaksanaan Python aplikasi pengumpulan pelayar tanpa kepala

Analisis storan data halaman dan fungsi eksport pelaksanaan Python aplikasi pengumpulan pelayar tanpa kepala

WBOY
Lepaskan: 2023-08-09 19:33:06
asal
1378 orang telah melayarinya

Analisis storan data halaman dan fungsi eksport pelaksanaan Python aplikasi pengumpulan pelayar tanpa kepala

Analisis storan data halaman dan fungsi eksport yang dilaksanakan oleh Python untuk aplikasi pengumpulan pelayar tanpa kepala

Dengan pembangunan aplikasi rangkaian berskala besar, permintaan orang ramai untuk mengumpul data halaman web juga semakin tinggi. Untuk memenuhi permintaan ini, Python menyediakan alat yang berkuasa-pelayar tanpa kepala, yang boleh mensimulasikan operasi pengguna dalam penyemak imbas dan mendapatkan data pada halaman web.

Artikel ini akan memperkenalkan secara terperinci cara menggunakan Python untuk menulis kod untuk melaksanakan penyimpanan data halaman dan fungsi eksport aplikasi pengumpulan pelayar tanpa kepala. Untuk memberi pemahaman yang lebih baik kepada pembaca, kami akan menggunakan kes sebenar untuk menunjukkan, iaitu mengumpul maklumat produk daripada tapak web e-dagang dan menyimpannya secara tempatan.

Pertama, kita perlu memasang dua perpustakaan Python - Selenium dan Panda. Selenium ialah alat untuk menguji aplikasi web yang boleh mensimulasikan operasi pengguna dalam penyemak imbas. Pandas ialah perpustakaan analisis data dan manipulasi data yang memudahkan penyimpanan dan eksport data.

Selepas memasang kedua-dua perpustakaan ini, kami juga perlu memuat turun pemacu penyemak imbas yang sepadan. Oleh kerana Selenium perlu berkomunikasi dengan penyemak imbas, ia perlu memuat turun pemacu yang sepadan dengan penyemak imbas. Mengambil penyemak imbas Chrome sebagai contoh, kami boleh memuat turun versi pemacu yang sepadan dari tapak web rasmi Chrome.

Seterusnya, mari mula menulis kod.

Mula-mula, import perpustakaan yang diperlukan:

from selenium import webdriver
import pandas as pd
Salin selepas log masuk

Kemudian, tetapkan pilihan penyemak imbas:

options = webdriver.ChromeOptions()
options.add_argument('--headless')  # 在无界面模式下运行
options.add_argument('--disable-gpu')  # 禁用GPU加速
Salin selepas log masuk

Buat objek pemacu penyemak imbas:

driver = webdriver.Chrome(options=options)
Salin selepas log masuk

Seterusnya, mari kita gunakan penyemak imbas untuk membuka halaman web sasaran:

url = 'https://www.example.com'
driver.get(url)
Salin selepas log masuk
dibuka halaman web , kita perlu mencari elemen di mana data yang perlu dikumpul berada. Anda boleh menggunakan kaedah yang disediakan oleh Selenium untuk mencari elemen, seperti mengikut id, kelas, nama teg, dsb. Sebagai contoh, kita boleh mencari nama produk dan elemen harga melalui kod berikut:

product_name = driver.find_element_by_xpath('//div[@class="product-name"]')
price = driver.find_element_by_xpath('//div[@class="product-price"]')
Salin selepas log masuk

Seterusnya, kita boleh mendapatkan data yang diperlukan melalui atribut atau kaedah elemen. Mengambil teks sebagai contoh, anda boleh menggunakan kod berikut:

product_name_text = product_name.text
price_text = price.text
Salin selepas log masuk

Selepas mendapat data, kami boleh menyimpannya dalam DataFrame Pandas:

data = {'商品名': [product_name_text], '价格': [price_text]}
df = pd.DataFrame(data)
Salin selepas log masuk

Akhir sekali, kami boleh mengeksport data dalam DataFrame sebagai fail CSV:

df.to_csv('data.csv', index=False)
Salin selepas log masuk

Bersepadu, kod lengkap adalah seperti berikut:

from selenium import webdriver
import pandas as pd

options = webdriver.ChromeOptions()
options.add_argument('--headless')
options.add_argument('--disable-gpu')

driver = webdriver.Chrome(options=options)

url = 'https://www.example.com'
driver.get(url)

product_name = driver.find_element_by_xpath('//div[@class="product-name"]')
price = driver.find_element_by_xpath('//div[@class="product-price"]')

product_name_text = product_name.text
price_text = price.text

data = {'商品名': [product_name_text], '价格': [price_text]}
df = pd.DataFrame(data)

df.to_csv('data.csv', index=False)
Salin selepas log masuk
Di atas adalah langkah terperinci untuk menggunakan Python untuk melaksanakan fungsi penyimpanan data halaman dan eksport aplikasi pengumpulan pelayar tanpa kepala. Melalui kerjasama Selenium dan Pandas, kami boleh mengumpul data pada halaman web dengan mudah dan menyimpannya dalam fail tempatan. Fungsi ini bukan sahaja dapat membantu kami mengekstrak data halaman web, tetapi juga boleh digunakan dalam pelbagai senario aplikasi seperti perangkak web dan analisis data. Saya harap artikel ini dapat membantu anda memahami penggunaan pelayar tanpa kepala.

Atas ialah kandungan terperinci Analisis storan data halaman dan fungsi eksport pelaksanaan Python aplikasi pengumpulan pelayar tanpa kepala. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!

sumber:php.cn
Kenyataan Laman Web ini
Kandungan artikel ini disumbangkan secara sukarela oleh netizen, dan hak cipta adalah milik pengarang asal. Laman web ini tidak memikul tanggungjawab undang-undang yang sepadan. Jika anda menemui sebarang kandungan yang disyaki plagiarisme atau pelanggaran, sila hubungi admin@php.cn
Tutorial Popular
Lagi>
Muat turun terkini
Lagi>
kesan web
Kod sumber laman web
Bahan laman web
Templat hujung hadapan