Jadual Kandungan
Bahagian 1: Bermula dengan PySpark
Output
Bahagian 2: Mengubah dan Menganalisis Data
Bahagian 3: Teknologi PySpark Termaju
KESIMPULAN
Rumah pembangunan bahagian belakang Tutorial Python Proses set data yang besar dengan Python PySpark

Proses set data yang besar dengan Python PySpark

Aug 29, 2023 am 09:09 AM

使用Python PySpark处理大型数据集

Dalam tutorial ini, kami akan meneroka gabungan Python dan PySpark yang berkuasa untuk memproses set data yang besar. PySpark ialah perpustakaan Python yang menyediakan antara muka kepada Apache Spark, sistem pengkomputeran kluster yang pantas dan serba boleh. Dengan memanfaatkan PySpark, kami boleh mengedarkan dan memproses data dengan cekap merentas set mesin, membolehkan kami mengendalikan set data berskala besar dengan mudah.

Dalam artikel ini, kami akan menyelidiki asas PySpark dan menunjukkan cara melaksanakan pelbagai tugas pemprosesan data pada set data yang besar. Kami akan merangkumi konsep utama seperti RDD (Resilient Distributed Datasets) dan bingkai data, dan menunjukkan aplikasi praktikalnya dengan contoh langkah demi langkah. Dengan mempelajari tutorial ini, anda akan mempunyai pemahaman yang kukuh tentang cara menggunakan PySpark dengan berkesan untuk memproses dan menganalisis set data berskala besar.

Bahagian 1: Bermula dengan PySpark

Terjemahan bahasa Cina ialah:

Bahagian 1: Bermula dengan PySpark

Dalam bahagian ini, kami akan menyediakan persekitaran pembangunan dan membiasakan diri dengan konsep asas PySpark. Kami akan membincangkan cara memasang PySpark, memulakan SparkSession dan memuatkan data ke dalam RDD dan DataFrames. Mari mulakan memasang PySpark:

# Install PySpark
!pip install pyspark
Salin selepas log masuk

Output

Collecting pyspark
...
Successfully installed pyspark-3.1.2

Salin selepas log masuk

Selepas memasang PySpark, kami boleh memulakan SparkSession untuk menyambung ke gugusan Spark kami:

from pyspark.sql import SparkSession

# Create a SparkSession
spark = SparkSession.builder.appName("LargeDatasetProcessing").getOrCreate()
Salin selepas log masuk

Dengan SparkSession kami sedia, kami kini boleh memuatkan data ke dalam RDD atau DataFrames. RDD ialah struktur data asas dalam PySpark, yang menyediakan koleksi elemen yang diedarkan. DataFrames, sebaliknya, menyusun data ke dalam lajur yang dinamakan, serupa dengan jadual dalam pangkalan data hubungan. Mari muatkan fail CSV sebagai DataFrame:

# Load a CSV file as a DataFrame
df = spark.read.csv("large_dataset.csv", header=True, inferSchema=True)
Salin selepas log masuk

Output

+---+------+--------+
|id |name  |age     |
+---+------+--------+
|1  |John  |32      |
|2  |Alice |28      |
|3  |Bob   |35      |
+---+------+--------+
Salin selepas log masuk

Seperti yang anda boleh lihat daripada coretan kod di atas, kami menggunakan kaedah `read.csv()` untuk membaca fail CSV ke dalam bingkai data. Parameter `header=True` bermaksud bahawa baris pertama mengandungi nama lajur dan `inferSchema=True` akan membuat kesimpulan secara automatik jenis data setiap lajur.

Bahagian 2: Mengubah dan Menganalisis Data

Dalam bahagian ini, kami akan meneroka pelbagai transformasi data dan teknik analisis menggunakan PySpark. Kami akan merangkumi operasi seperti penapisan, pengagregatan dan penggabungan set data. Mari mulakan dengan menapis data berdasarkan kriteria tertentu:

# Filter data
filtered_data = df.filter(df["age"] > 30)
Salin selepas log masuk

Output

+---+----+---+
|id |name|age|
+---+----+---+
|1  |John|32 |
|3  |Bob |35 |
+---+----+---+
Salin selepas log masuk

Dalam coretan kod di atas, kami menggunakan kaedah `filter()` untuk memilih baris dengan lajur "umur" lebih daripada 30. Operasi ini membolehkan kami mengekstrak subset yang berkaitan daripada set data yang besar.

Seterusnya, mari lakukan pengagregatan pada set data menggunakan kaedah "groupBy()" dan "agg()":

# Aggregate data
aggregated_data = df.groupBy("gender").agg({"salary": "mean", "age": "max"})
Salin selepas log masuk

Output

+------+-----------+--------+
|gender|avg(salary)|max(age)|
+------+-----------+--------+
|Male  |2500       |32      |
|Female|3000       |35      |
+------+-----------+--------+
Salin selepas log masuk

Di sini, kami mengumpulkan data mengikut lajur "Jantina" dan mengira purata gaji dan umur maksimum bagi setiap kumpulan. Bingkai data "data_agregat" yang terhasil memberikan kami cerapan berharga tentang set data.

Selain penapisan dan pengagregatan, PySpark juga membolehkan kami menyertai berbilang set data dengan cekap. Mari kita pertimbangkan contoh di mana kita mempunyai dua DataFrames: "df1" dan "df2". Kita boleh menyertai mereka berdasarkan lajur biasa:

# Join two DataFrames
joined_data = df1.join(df2, on="id", how="inner")
Salin selepas log masuk

Output

+---+----+---------+------+
|id |name|department|salary|
+---+----+---------+------+
|1  |John|HR       |2500  |
|2  |Alice|IT      |3000  |
|3  |Bob |Sales    |2000  |
+---+----+---------+------+
Salin selepas log masuk

Kaedah `join()` membolehkan kami menggabungkan DataFrames berdasarkan lajur biasa yang ditentukan oleh parameter `on`. Bergantung pada keperluan kita, kita boleh memilih jenis sambungan yang berbeza, seperti "dalaman", "luar", "kiri" atau "kanan".

Bahagian 3: Teknologi PySpark Termaju

Dalam bahagian ini, kami akan meneroka teknologi PySpark termaju untuk meningkatkan lagi keupayaan pemprosesan data kami. Kami akan membincangkan topik seperti fungsi takrif pengguna (UDF), fungsi tetingkap dan caching. Mari kita mulakan dengan mentakrif dan menggunakan UDF:

from pyspark.sql.functions import udf

# Define a UDF
def square(x):
    return x ** 2

# Register the UDF
square_udf = udf(square)

# Apply the UDF to a column
df = df.withColumn("age_squared", square_udf(df["age"]))
Salin selepas log masuk

Output

+---+------+---+------------+
|id |name  |age|age_squared |
+---+------+---+------------+
|1  |John  |32 |1024        |
|2  |Alice |28 |784         |
|3  |Bob   |35 |1225        |
+---+------+---+------------+
Salin selepas log masuk

Dalam coretan kod di atas, kami telah mentakrifkan fungsi UDF ringkas bernama `square()` yang digunakan untuk mengduakan input yang diberikan. Kami kemudiannya mendaftarkan UDF ini menggunakan fungsi `udf()` dan menggunakannya pada lajur "umur", mencipta lajur baharu yang dipanggil "age_squared" dalam DataFrame kami.

PySpark juga menyediakan fungsi tetingkap berkuasa yang membolehkan kami melakukan pengiraan dalam julat tetingkap tertentu. Mari kita pertimbangkan baris sebelumnya dan seterusnya untuk mengira purata gaji setiap pekerja:

from pyspark.sql.window import Window
from pyspark.sql.functions import lag, lead, avg

# Define the window
window = Window.orderBy("id")

# Calculate average salary with lag and lead
df = df.withColumn("avg_salary", (lag(df["salary"]).over(window) + lead(df["salary"]).over(window) + df["salary"]) / 3)
Salin selepas log masuk

Output

+---+----+---------+------+----------+
|id |name|department|salary|avg_salary|
+---+----+---------+------+----------+
|1  |John|HR       |2500  |2666.6667 |
|2  |Alice|

IT      |3000  |2833.3333 |
|3  |Bob |Sales    |2000  |2500      |
+---+----+---------+------+----------+
Salin selepas log masuk

Dalam petikan kod di atas, kami menggunakan kaedah "Window.orderBy()" untuk menentukan tetingkap yang menentukan susunan baris berdasarkan lajur "id". Kami kemudian menggunakan fungsi "lag()" dan "lead()" untuk mengakses baris sebelumnya dan seterusnya masing-masing. Akhirnya, kami mengira purata gaji dengan mempertimbangkan barisan semasa dan jirannya.

Akhir sekali, caching ialah teknologi penting dalam PySpark untuk meningkatkan prestasi algoritma lelaran atau pengiraan berulang. Kita boleh cache DataFrame atau RDD dalam ingatan menggunakan kaedah `cache()`:

# Cache a DataFrame
df.cache()
Salin selepas log masuk

Caching tidak akan menunjukkan sebarang output, tetapi operasi seterusnya bergantung pada DataFrame yang dicache akan menjadi lebih pantas kerana data disimpan dalam memori.

KESIMPULAN

Dalam tutorial ini, kami meneroka kuasa PySpark untuk memproses set data yang besar dalam Python. Kami mula-mula menyediakan persekitaran pembangunan dan memuatkan data ke dalam RDD dan DataFrames. Kami kemudian menyelidiki transformasi data dan teknik analisis, termasuk penapisan, pengagregatan dan penggabungan set data. Akhir sekali, kami membincangkan teknik PySpark lanjutan seperti fungsi yang ditentukan pengguna, fungsi tetingkap dan caching.

Atas ialah kandungan terperinci Proses set data yang besar dengan Python PySpark. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!

Kenyataan Laman Web ini
Kandungan artikel ini disumbangkan secara sukarela oleh netizen, dan hak cipta adalah milik pengarang asal. Laman web ini tidak memikul tanggungjawab undang-undang yang sepadan. Jika anda menemui sebarang kandungan yang disyaki plagiarisme atau pelanggaran, sila hubungi admin@php.cn

Alat AI Hot

Undresser.AI Undress

Undresser.AI Undress

Apl berkuasa AI untuk mencipta foto bogel yang realistik

AI Clothes Remover

AI Clothes Remover

Alat AI dalam talian untuk mengeluarkan pakaian daripada foto.

Undress AI Tool

Undress AI Tool

Gambar buka pakaian secara percuma

Clothoff.io

Clothoff.io

Penyingkiran pakaian AI

AI Hentai Generator

AI Hentai Generator

Menjana ai hentai secara percuma.

Artikel Panas

R.E.P.O. Kristal tenaga dijelaskan dan apa yang mereka lakukan (kristal kuning)
3 minggu yang lalu By 尊渡假赌尊渡假赌尊渡假赌
R.E.P.O. Tetapan grafik terbaik
3 minggu yang lalu By 尊渡假赌尊渡假赌尊渡假赌
R.E.P.O. Cara Memperbaiki Audio Jika anda tidak dapat mendengar sesiapa
3 minggu yang lalu By 尊渡假赌尊渡假赌尊渡假赌
WWE 2K25: Cara Membuka Segala -galanya Di Myrise
4 minggu yang lalu By 尊渡假赌尊渡假赌尊渡假赌

Alat panas

Notepad++7.3.1

Notepad++7.3.1

Editor kod yang mudah digunakan dan percuma

SublimeText3 versi Cina

SublimeText3 versi Cina

Versi Cina, sangat mudah digunakan

Hantar Studio 13.0.1

Hantar Studio 13.0.1

Persekitaran pembangunan bersepadu PHP yang berkuasa

Dreamweaver CS6

Dreamweaver CS6

Alat pembangunan web visual

SublimeText3 versi Mac

SublimeText3 versi Mac

Perisian penyuntingan kod peringkat Tuhan (SublimeText3)

Bagaimana untuk menyelesaikan masalah kebenaran yang dihadapi semasa melihat versi Python di Terminal Linux? Bagaimana untuk menyelesaikan masalah kebenaran yang dihadapi semasa melihat versi Python di Terminal Linux? Apr 01, 2025 pm 05:09 PM

Penyelesaian kepada Isu Kebenaran Semasa Melihat Versi Python di Terminal Linux Apabila anda cuba melihat versi Python di Terminal Linux, masukkan Python ...

Bagaimana cara menyalin seluruh lajur satu data ke dalam data data lain dengan struktur yang berbeza di Python? Bagaimana cara menyalin seluruh lajur satu data ke dalam data data lain dengan struktur yang berbeza di Python? Apr 01, 2025 pm 11:15 PM

Apabila menggunakan Perpustakaan Pandas Python, bagaimana untuk menyalin seluruh lajur antara dua data data dengan struktur yang berbeza adalah masalah biasa. Katakan kita mempunyai dua DAT ...

Bagaimana Mengajar Asas Pengaturcaraan Pemula Komputer Dalam Kaedah Projek dan Masalah Dikemukakan Dalam masa 10 Jam? Bagaimana Mengajar Asas Pengaturcaraan Pemula Komputer Dalam Kaedah Projek dan Masalah Dikemukakan Dalam masa 10 Jam? Apr 02, 2025 am 07:18 AM

Bagaimana Mengajar Asas Pengaturcaraan Pemula Komputer Dalam masa 10 jam? Sekiranya anda hanya mempunyai 10 jam untuk mengajar pemula komputer beberapa pengetahuan pengaturcaraan, apa yang akan anda pilih untuk mengajar ...

Bagaimanakah uvicorn terus mendengar permintaan http tanpa serving_forever ()? Bagaimanakah uvicorn terus mendengar permintaan http tanpa serving_forever ()? Apr 01, 2025 pm 10:51 PM

Bagaimanakah Uvicorn terus mendengar permintaan HTTP? Uvicorn adalah pelayan web ringan berdasarkan ASGI. Salah satu fungsi terasnya ialah mendengar permintaan HTTP dan teruskan ...

Bagaimana secara dinamik membuat objek melalui rentetan dan panggil kaedahnya dalam Python? Bagaimana secara dinamik membuat objek melalui rentetan dan panggil kaedahnya dalam Python? Apr 01, 2025 pm 11:18 PM

Di Python, bagaimana untuk membuat objek secara dinamik melalui rentetan dan panggil kaedahnya? Ini adalah keperluan pengaturcaraan yang biasa, terutamanya jika perlu dikonfigurasikan atau dijalankan ...

Apakah beberapa perpustakaan Python yang popular dan kegunaan mereka? Apakah beberapa perpustakaan Python yang popular dan kegunaan mereka? Mar 21, 2025 pm 06:46 PM

Artikel ini membincangkan perpustakaan Python yang popular seperti Numpy, Pandas, Matplotlib, Scikit-Learn, Tensorflow, Django, Flask, dan Permintaan, memperincikan kegunaan mereka dalam pengkomputeran saintifik, analisis data, visualisasi, pembelajaran mesin, pembangunan web, dan h

Bagaimana untuk mengelakkan dikesan oleh penyemak imbas apabila menggunakan fiddler di mana-mana untuk membaca lelaki-dalam-tengah? Bagaimana untuk mengelakkan dikesan oleh penyemak imbas apabila menggunakan fiddler di mana-mana untuk membaca lelaki-dalam-tengah? Apr 02, 2025 am 07:15 AM

Cara mengelakkan dikesan semasa menggunakan fiddlerevery di mana untuk bacaan lelaki-dalam-pertengahan apabila anda menggunakan fiddlerevery di mana ...

See all articles