首頁 > 後端開發 > Python教學 > 如何在本機上安裝 PySpark

如何在本機上安裝 PySpark

Mary-Kate Olsen
發布: 2024-12-27 05:06:09
原創
552 人瀏覽過

如果您正在步入大數據世界,您可能聽說過 Apache Spark,這是一個強大的分散式運算系統。 PySpark 是 Apache Spark 的 Python 函式庫,因其速度、可擴展性和易用性的結合而深受資料愛好者的喜愛。但在本地電腦上設定它一開始可能會感覺有點嚇人。

不用擔心 - 本文將引導您完成整個過程,解決常見問題並使整個過程盡可能簡單。

什麼是 PySpark,為什麼要關心?

在開始安裝之前,我們先來了解一下 PySpark 是什麼。 PySpark 讓您可以使用 Python 來利用 Apache Spark 的強大運算能力。無論您是分析TB 級資料、建立機器學習模型還是運行ETL(ExtractTransformLoad)管道,PySpark 都可以讓您使用資料比以往更有效率。

現在您已經了解了 PySpark,讓我們來完成安裝過程。

第 1 步:確保您的系統符合要求

PySpark 在各種電腦上運行,包括 WindowsmacOSLinux。以下是成功安裝所需的內容:

  • Java 開發套件 (JDK):PySpark 需要 Java(建議使用版本 8 或 11)。
  • Python:確保您有 Python 3.6 或更高版本。
  • Apache Spark Binary:您將在安裝過程中下載它。

要檢查您的系統準備:

  1. 開啟終端機指令提示字元
  2. 輸入 java -versionpython —version 以確認 Java 和 Python 安裝。

如果您沒有安裝 Java 或 Python,請依照下列步驟操作:

  • 對於Java:從Oracle官網下載。
  • 對於 Python:存取 Python 的下載頁面。

第 2 步:安裝 Java

Java 是 Apache Spark 的支柱。安裝方法:

1.下載 Java:造訪 Java SE 開發工具包下載頁面。選擇適合您的作業系統的版本。

2.安裝 Java:執行安裝程式並依照指示操作。在 Windows 上,您需要設定 JAVA_HOME 環境變數。為此:

  • 複製路徑變量,進入您機器上的本機磁碟,選擇program files,找java資料夾打開它你會看到jdk-17(你自己的版本可能不是 17)。打開它,你將能夠看到你的路徑並複製如下

How to Install PySpark on Your Local Machine

  • 在 Windows 搜尋列中搜尋 環境變數

  • 系統變數下,按一下新建並將變數名稱設為JAVA_HOME,並將數值設為您在上面複製的Java安裝路徑(例如,C:Program檔案Javajdk-17)。

3.驗證安裝:開啟終端機指令提示字元並輸入java-version。

步驟 3:安裝 Apache Spark

1.下載 Spark:造訪 Apache Spark 網站並選擇適合您需求的版本。使用 Hadoop 的預先建置套件(與 Spark 的常見配對)。

2.解壓縮檔:

  • Windows 上,使用 WinRAR 或 7-Zip 等工具來擷取檔案。
  • macOS/Linux 上,使用指令 tar -xvf Spark-.tgz

3.設定環境變數:

  • 對於 Windows:將 Spark 的 bin 目錄加入系統的 PATH 變數。
  • 對於 macOS/Linux:將以下行加入 .bashrc.zshrc
.zshrc
export SPARK_HOME=/path/to/spark
export PATH=$SPARK_HOME/bin:$PATH
登入後複製
登入後複製

檔案

4.

驗證安裝

:開啟終端機並輸入spark-shell。您應該會看到 Spark 的互動式 shell 啟動。

    第 4 步:安裝 Hadoop(可選但建議)
  1. 雖然 Spark 並不嚴格要求 Hadoop,但許多用戶安裝它是為了支援 HDFS(Hadoop 分散式檔案系統)。要安裝 Hadoop:
從 Apache Hadoop 網站下載 Hadoop 二進位。

解壓縮檔案並設定 HADOOP_HOME 環境變數。


步驟5:透過pip安裝PySpark
pip install pyspark
登入後複製

使用 Python 的 pip 工具安裝 PySpark 變得輕而易舉。只要運行:

pip install pysparkark.__version__)
登入後複製

要進行驗證,請開啟 Python shell 並輸入:

如果您看到版本號,恭喜! PySpark 已安裝?

步驟 6:測試您的 PySpark 安裝 樂趣就從這裡開始。讓我們確保一切順利:

建立一個簡單的腳本
from pyspark.sql import SparkSession
spark = SparkSession.builder.appName("PySparkTest").getOrCreate()
data = [("Alice", 25), ("Bob", 30), ("Cathy", 29)]
columns = ["Name", "Age"]
df = spark.createDataFrame(data, columns)
df.show()
登入後複製
:

開啟文字編輯器並貼上以下程式碼:

另存為 test_pyspark.py

執行腳本:
在終端機中,導航到腳本的目錄並輸入:

export SPARK_HOME=/path/to/spark
export PATH=$SPARK_HOME/bin:$PATH
登入後複製
登入後複製

您應該會看到一個格式整齊的表格,其中顯示姓名年齡

常見問題故障排除

即使有最好的指導,也會出現問題。以下是一些常見問題和解決方案:

  • 問題:java.lang.NoClassDefFoundError
    :仔細檢查您的 JAVA_HOME 和 PATH 變數。

  • 問題:PySpark安裝成功,但測試腳本失敗。
    解決方案:確保您使用的是正確的 Python 版本。有時,虛擬環境可能會導致衝突。

  • 問題:spark-shell 指令不起作用。
    解決方案:驗證 Spark 目錄是否已正確加入您的 PATH 。

為什麼在本地使用 PySpark?

許多使用者想知道為什麼要在本機上安裝 PySpark,因為 PySpark 主要用於分散式系統。原因如下:

  • 學習:無需叢集即可實驗和學習 Spark 概念。
  • 原型設計:在將小數據作業部署到更大的環境之前在本地測試它們。
  • 方便:輕鬆偵錯問題並開發應用程式。

提高您的 PySpark 生產力

要充分利用 PySpark,請考慮以下提示:

  • 設定虛擬環境:使用 venv 或 conda 等工具來隔離 PySpark 安裝。

  • 與 IDE 整合:PyCharm 和 Jupyter Notebook 等工具讓 PySpark 開發更具互動性。

  • 利用 PySpark 文件:存取 Apache Spark 的文件以取得深入指導。

參與 PySpark 社區

陷入困境是正常的,尤其是使用 PySpark 這樣強大的工具時。與充滿活力的 PySpark 社區聯繫以尋求幫助:

  • 加入論壇:像 Stack Overflow 這樣的網站有專用的 Spark 標籤。

  • 參加派對:Spark 和 Python 社群經常舉辦可供您學習和交流的活動。

  • 關注部落格:許多數據專業人士在線上分享他們的經驗和教學。

結論

在本機上安裝 PySpark 起初可能看起來令人畏懼,但遵循這些步驟使其易於管理且有益。無論您是剛開始資料之旅還是提陞技能,PySpark 都能為您提供解決現實資料問題的工具。

PySpark 是 Apache Spark 的 Python API,是資料分析和處理的遊戲規則改變者。雖然它的潛力巨大,但在本地電腦上設定它可能會讓人感到具有挑戰性。本文逐步分解這個過程,涵蓋從安裝 Java 和下載 Spark 到使用簡單腳本測試您的設定的所有內容。

透過在本地安裝 PySpark,您可以建立資料工作流程原型、學習 Spark 的功能並測試小型項目,而無需完整叢集。

以上是如何在本機上安裝 PySpark的詳細內容。更多資訊請關注PHP中文網其他相關文章!

來源:dev.to
本網站聲明
本文內容由網友自願投稿,版權歸原作者所有。本站不承擔相應的法律責任。如發現涉嫌抄襲或侵權的內容,請聯絡admin@php.cn
作者最新文章
熱門教學
更多>
最新下載
更多>
網站特效
網站源碼
網站素材
前端模板