目次
-directory 1
2.3. 環境変数の設定 2
この記事では、root ユーザー (実際には非 root ユーザーでも構いません。事前に計画することをお勧めします) を使用して Scala を /data/scala にインストールします。 /data/scala-2.11.7リンクのソフトウェア。
Scala をインストールした後、/etc/profile ファイルを直接変更して次の内容を追加する必要があります:
exportSCALA_HOME=/ data /scala
3.1. この記事でダウンロードしたバイナリ インストール パッケージをダウンロードします。そうでない場合は、コンパイルについて心配する必要があります。ダウンロード URL は次のとおりです: http://spark.apache.org/downloads.html この記事では、YARN 上で直接実行できる spar-1.6.0-bin-hadoop2.6.tgz をダウンロードします。
YARN_CONF_DIR=/data/hadoop/current/etc/hadoop
4.1. 組み込みサンプルを実行します
経由で SparkSQLCli 対話インターフェースにすぐにアクセスできますが、Yarn 上でクラスターを実行する必要があるため、パラメーターを指定する必要があります --master は yarn (注意はパラメーター --deploy-mode の値はクラスターです)只能以クライアントモード运行在Yarn上):
5. Hive と統合する
6.1. エラー 1: 不明なキュー: thequeue
実行:
6.2.SPARK_CLASSPATHwasdetected
7. 関連ドキュメント
ホームページ バックエンド開発 PHPチュートリアル Yarn でのspark-1.6.0_PHP チュートリアルの実行

Yarn でのspark-1.6.0_PHP チュートリアルの実行

Jul 12, 2016 am 08:58 AM
android

yarn yrun spark-1.6.0.pdfのyarn

-directory 1

2 Yarn でのspark-1.6.0_PHP チュートリアルの実行2.2. インストール 2

2.3. 環境変数の設定 2

3.1. ダウンロード 2

3.3. conf/spark の変更-env .sh 3

4. Spark 3 を起動します

4.1. 組み込みサンプルを実行します 3

4.2.SparkSQLCli4

5. 一般的なエラー 5

6.1. thequeue 5

6.2.SPARK_CLASSPATHwasdetected6

7.関連ドキュメント6

1. 同意事項

この記事は、Hadoop2.7.1 が /data/hadoop/current にインストールされ、Spark1.6.0 が /data/ にインストールされることに同意します。 hadoop/spark。ここで、/data/hadoop/spark は /data/hadoop/spark を指します。

Spark の公式 Web サイトは: http://spark.apache.org/ (Shark の公式 Web サイトは: http://shark.cs.berkeley.edu/、Shark は Spark のモジュールになっており、インストールする必要はありません)別々に)。

Spark をクラスター モードで実行します。クライアント モードは導入されません。

2. Scala をインストールする

Ecole Polytechnique Fédérale de Lausanne (EPFL) の Martin Odersky は、Funnel の成果に基づいて 2001 年に Scala の設計を開始しました。

Scala は、純粋なオブジェクト指向プログラミングと関数型プログラミングのさまざまな機能を統合するように設計されたマルチパラダイム プログラミング言語です。 Java 仮想マシン JVM 上で実行され、既存の Java プログラムと互換性があり、Java クラス ライブラリを呼び出すことができます。 Scala にはコンパイラーとクラス ライブラリが含まれており、BSD ライセンスに基づいてリリースされます。

2.1. ダウンロード

Spark は Scala を使用して開発されています。Spark をインストールする前に、まず各セクションに Scala をインストールします。 Scala の公式 Web サイトは http://www.scala-lang.org/ で、ダウンロード URL は http://www.scala-lang.org/download/ です。この記事では、バイナリ インストール パッケージ scala-2.11 をダウンロードします。 7.tgz。

2.2. インストール

この記事では、root ユーザー (実際には非 root ユーザーでも構いません。事前に計画することをお勧めします) を使用して Scala を /data/scala にインストールします。 /data/scala-2.11.7リンクのソフトウェア。

インストール方法は非常に簡単で、scala-2.11.7.tgzを/dataディレクトリにアップロードし、scala-2.11.7.tgzを/data/ディレクトリに解凍します。

次に、ソフトリンクを作成します: ln-s/data/scala-2.11.7/data/scala。

2.3. 環境変数を設定する

Scala をインストールした後、/etc/profile ファイルを直接変更して次の内容を追加する必要があります:

exportSCALA_HOME=/ data /scala

exportPATH=$SCALA_HOME/bin:$PATH

3. Spark をインストールする

この記事では、Spark を Hadoop ユーザーとしてインストールします。

3.1. この記事でダウンロードしたバイナリ インストール パッケージをダウンロードします。そうでない場合は、コンパイルについて心配する必要があります。ダウンロード URL は次のとおりです: http://spark.apache.org/downloads.html この記事では、YARN 上で直接実行できる spar-1.6.0-bin-hadoop2.6.tgz をダウンロードします。

3.2. インストール

1)spark-1.6.0-bin-hadoop2.6.tgz をディレクトリ /data/hadoop にアップロードします2) 解凍します: tarxzfspark-1.6.0-bin-hadoop2.6.tgz 3.3. 設定
3) ソフトリンクを確立します: ln-sspark-1.6.0-bin-hadoop2.6spark

Spark をすべてのマシンにインストールする必要はありません。1 台のマシンにのみインストールできます。 。ただし、Spark は、Spark がインストールされているマシン上でのみ実行できます。理由は簡単です。Spark を呼び出すファイルが必要だからです。
3.3.1. conf/spark-env.sh を変更する

spark-env.sh.template のコピーを作成し、次の内容を追加できます:

HADOOP_CONF_DIR=/data /hadoop /current/etc/hadoop

YARN_CONF_DIR=/data/hadoop/current/etc/hadoop

4. Sparkの起動

Yarn上で動作しているため、Sparkを起動する処理はありません。 。代わりに、spark-submit コマンドが実行されると、Spark は Yarn によって実行されるようにスケジュールされます。

4.1. 組み込みサンプルを実行します

./bin/spark-submit--classorg.apache.spark.examples.SparkPi --masteryarn--deploy-modecluster --executor-cores1 --queuedefault

--driver- Memory4g

--executor-memory2g

lib/spark-examples*.jar10

行出:

4.2.SparkSQLCli

16/02/0316:08:33INFOyarn.Client:Applicationreportforapplication_1454466109748_0007(state:RUNNING)

16/02/0316:0 8:34INFOyarn.Client:アプリケーションのアプリケーションレポート_1454466109748_0007(状態:実行中)

16/02/0316:08:35INFOyarn.Client:アプリケーションレポート_1454466109748_0007(状態:実行中)

16/02/0316:08:36INFOyarn.Client:アプリケーションレポート_1454466109748_0007 (状態:実行中)

16/02/0316:08: 37INFOyarn.Client:アプリケーションレポート_1454466109748_0007(状態:実行中)

16/02/0316:08:38INFOyarn.Client:アプリケーションレポート_1454466109748_0007(状態:実行中)

16/02/0316:08:38 0316:08:39INFOyarn.Client:アプリケーションのアプリケーションレポート_1454466109748_0007(状態:実行中)

16/02/0316:08:40INFOyarn.Client:Applicationreportforapplication_1454466109748_0007(state:FINISHED)

16/02/0316:08:40INFOyarn.Client:

clienttoken:N/A

診断:該当なし

ApplicationMasterhost:10.225.168.251

ApplicationMasterRPCport:0

queue:default

starttime:1454486904755

finalstatus:SUCCEEDED

trackingURL:http://hadoop-168-254:8088/ proxy/application_1454466109748_0007/

ユーザー:hadoop

16/02/0316:08:40INFOutil.ShutdownHookManager:シャットダウンフックが呼び出されます4c5eac

経由で SparkSQLCli 対話インターフェースにすぐにアクセスできますが、Yarn 上でクラスターを実行する必要があるため、パラメーターを指定する必要があります --master は yarn (注意はパラメーター --deploy-mode の値はクラスターです)只能以クライアントモード运行在Yarn上):

./bin/spark-sql--masteryarn

SparkSQLCli はクライアント モードでのみ実行できるのはなぜですか?実際、これは対話型であり、出力を確認する必要があるため、現時点ではクラスター モードではそれができません。クラスター モードのため、ApplicationMaster が実行されるマシンは Yarn によって動的に決定されます。

5. Hive と統合する

Spark を Hive と統合するのは非常に簡単で、次の手順を実行するだけです:

1) HIVE_HOME をspark-env.sh に追加します (exportHIVE_HOME=/data/hadoop/hive)。

2) Hive の hive-site.xml ファイルと hive-log4j.properties ファイルを Spark の conf ディレクトリに追加します。

完了後、spark-sqlを再度実行してSparkのSQLCliに入り、コマンドshowtablesを実行してHiveで作成されたテーブルを確認します。

例:

./spark-sql--masteryarn--driver-class-path/data/hadoop/hive/lib/mysql-connector-java-5.1.38-bin.jar

6.

6.1. エラー 1: 不明なキュー: thequeue

実行:

./bin/spark-submit--classorg.apache.spark.examples.SparkPi--masteryarn--deploy-modecluster--driver-memory4g--executor- Memory2g--executor-cores1--queuethequeuelib/spark-examples*.jar10

は次のエラーを報告します。「--queuethequeue」を「--queuedefault」に変更するだけです。

16/02/0315:57:36INFOyarn.Client:Applicationreportforapplication_1454466109748_0004(state:FAILED)

6.2.SPARK_CLASSPATHwasdetected

SPARK_CLASSPATHwasdetected(setto'/data/hadoop/hive/lib/mysql-connector-java-5.1.38-bin.jar:').

これはSpark1.0以降では非推奨です。

代わりに使用してください:

- ./spark-submitwith--driver-class-pathtoaugmentthedriverclasspath

-spark.executor.extraClassPathtoaugmenttheexecutorclasspath

は、spark-env.sh で環境変数 SPARK_CLASSPATH を設定することは推奨されないことを意味します。 以下の推奨方法に変更できます。 :

./spark-sql--masteryarn--driver-class-path/data/hadoop/hive/lib/mysql-connector-java-5.1.38-bin.jar

7. 関連ドキュメント

「HBase」 -0.98.0 ディストリビューション

「Hive0.12.0 インストール ガイド」

「ZooKeeper-3.4.6 ディストリビュート インストール ガイド」

「Hadoop2.3.0 ソース コード リバース エンジニアリング」

「Linux での Hadoop-2.4.0 のコンパイル」

《Accumulo-1.5.1 インストールガイド》

《Drill1.0.0 インストールガイド》

《Shark0.9.1 インストールガイド》

詳細については、技術ブログにご注意ください: http://aquester.cublog 。


www.bkjia.comtru​​ehttp://www.bkjia.com/PHPjc/1103191.html技術記事 Yarn でのspark-1.6.0の実行 Yarnディレクトリでのspark-1.6.0.pdfの実行 1 1. Scalaのインストール 1 2.1. ダウンロード 2 2.2. インストール2 2.3. 環境変数の設定 2 3. Spark 2のインストール 3.1ダウンロード 2 3.2.インストール...

16/02/0315:57:36INFOyarn.Client:

クライアントトークン:N/A

診断:Applicationapplication_1454466109748_0004ユーザーhadoopにより不明なキューに送信されました:thequeue

ApplicationMasterhost:N/A

ApplicationMasterRPCport:-1

queue:thequeue

starttime:1454486255907

finalstatus:FAILED

trackingURL:http://hadoop-168-254 088/プロキシ/アプリケーション_1454466109748_0004/

ユーザー:hadoop

16/02/0315:57:36INFOyarn.Client:Deletingstagingdirectory.sparkStaging/application_1454466109748_0004

Exceptioninthread"main"org.apache.spark.SparkException:Applicationapplication_1454466 109748_0004finishedwithfailed ステータス

atorg.apache.spark.deploy。糸 .Client.run(Client.scala:1029)

atorg.apache.spark.deploy.yarn.Client$.main(Client.scala:1076)

atorg.apache.spark.deploy.yarn.Client.main ( Client.scala)

atsun.reflect.NativeMethodAccessorImpl.invoke0(NativeMethod)

atsun.reflect.NativeMethodAccessorImpl.invoke(NativeMethodAccessorImpl.java:57)

atsun.reflect.DelegatingMethodAccessorImpl.invoke(Deleg) ingMe thodAccessorImpl.java:43)

atjava.lang.reflect.Method.invoke(Method.java:606)

aorg.apache.spark.deploy.SparkSubmit$.org$apache$spark$deploy$SparkSubmit$$runMain(SparkSubmit.scala:731)

atorg.apache.spark.deploy.SparkSubmit$.doRunMain$1(SparkSubmit.scala:181)

atorg.apache.spark.deploy.SparkSubmit$.submit(SparkSubmit.scala:206)

atorg.apache.spark .deploy .SparkSubmit$.main(SparkSubmit.scala:121)

aorg.apache.spark.deploy.SparkSubmit.main(SparkSubmit.scala)

16/02/0315:57:36INFOutil.ShutdownHookManager:Shutdownhookcalled

16 /02 /0315:57:36INFOutil.ShutdownHookManager:ディレクトリの削除/tmp/spark-54531ae3-4d02-41be-8b9e-92f4b0f05807

このウェブサイトの声明
この記事の内容はネチズンが自主的に寄稿したものであり、著作権は原著者に帰属します。このサイトは、それに相当する法的責任を負いません。盗作または侵害の疑いのあるコンテンツを見つけた場合は、admin@php.cn までご連絡ください。

ホットAIツール

Undresser.AI Undress

Undresser.AI Undress

リアルなヌード写真を作成する AI 搭載アプリ

AI Clothes Remover

AI Clothes Remover

写真から衣服を削除するオンライン AI ツール。

Undress AI Tool

Undress AI Tool

脱衣画像を無料で

Clothoff.io

Clothoff.io

AI衣類リムーバー

AI Hentai Generator

AI Hentai Generator

AIヘンタイを無料で生成します。

ホットツール

メモ帳++7.3.1

メモ帳++7.3.1

使いやすく無料のコードエディター

SublimeText3 中国語版

SublimeText3 中国語版

中国語版、とても使いやすい

ゼンドスタジオ 13.0.1

ゼンドスタジオ 13.0.1

強力な PHP 統合開発環境

ドリームウィーバー CS6

ドリームウィーバー CS6

ビジュアル Web 開発ツール

SublimeText3 Mac版

SublimeText3 Mac版

神レベルのコード編集ソフト(SublimeText3)

新しいレポートは、噂のSamsung Galaxy S25、Galaxy S25 Plus、Galaxy S25 Ultraのカメラアップグレードのひどい評価を提供します 新しいレポートは、噂のSamsung Galaxy S25、Galaxy S25 Plus、Galaxy S25 Ultraのカメラアップグレードのひどい評価を提供します Sep 12, 2024 pm 12:23 PM

ここ数日、Ice Universeは、サムスンの次期主力スマートフォンであると広く信じられているGalaxy S25 Ultraの詳細を着実に明らかにしている。とりわけ、リーカーはサムスンがカメラのアップグレードを1つだけ計画していると主張した

Samsung Galaxy S25 Ultraの最初のレンダリング画像がリークされ、噂のデザイン変更が明らかに Samsung Galaxy S25 Ultraの最初のレンダリング画像がリークされ、噂のデザイン変更が明らかに Sep 11, 2024 am 06:37 AM

OnLeaks は、X (旧 Twitter) のフォロワーから 4,000 ドル以上を集めようとして失敗した数日後、Android Headlines と提携して Galaxy S25 Ultra のファーストルックを提供しました。コンテキストとして、h の下に埋め込まれたレンダリング イメージ

IFA 2024 | TCLのNXTPAPER 14は、パフォーマンスではGalaxy Tab S10 Ultraに匹敵しませんが、サイズではほぼ匹敵します IFA 2024 | TCLのNXTPAPER 14は、パフォーマンスではGalaxy Tab S10 Ultraに匹敵しませんが、サイズではほぼ匹敵します Sep 07, 2024 am 06:35 AM

TCLは、2つの新しいスマートフォンの発表に加えて、NXTPAPER 14と呼ばれる新しいAndroidタブレットも発表しました。その巨大な画面サイズはセールスポイントの1つです。 NXTPAPER 14 は、TCL の代表的なブランドであるマット LCD パネルのバージョン 3.0 を搭載しています。

Vivo Y300 Pro は、7.69 mm のスリムなボディに 6,500 mAh のバッテリーを搭載 Vivo Y300 Pro は、7.69 mm のスリムなボディに 6,500 mAh のバッテリーを搭載 Sep 07, 2024 am 06:39 AM

Vivo Y300 Pro は完全に公開されたばかりで、大容量バッテリーを備えた最もスリムなミッドレンジ Android スマートフォンの 1 つです。正確に言うと、このスマートフォンの厚さはわずか 7.69 mm ですが、6,500 mAh のバッテリーを搭載しています。これは最近発売されたものと同じ容量です

新しいレポートは、噂のSamsung Galaxy S25、Galaxy S25 Plus、Galaxy S25 Ultraのカメラアップグレードのひどい評価を提供します 新しいレポートは、噂のSamsung Galaxy S25、Galaxy S25 Plus、Galaxy S25 Ultraのカメラアップグレードのひどい評価を提供します Sep 12, 2024 pm 12:22 PM

ここ数日、Ice Universeは、サムスンの次期主力スマートフォンであると広く信じられているGalaxy S25 Ultraの詳細を着実に明らかにしている。とりわけ、リーカーはサムスンがカメラのアップグレードを1つだけ計画していると主張した

Samsung Galaxy S24 FEは、4色と2つのメモリオプションで予想よりも低価格で発売されると請求されています Samsung Galaxy S24 FEは、4色と2つのメモリオプションで予想よりも低価格で発売されると請求されています Sep 12, 2024 pm 09:21 PM

サムスンは、ファンエディション(FE)スマートフォンシリーズをいつアップデートするかについて、まだ何のヒントも提供していない。現時点では、Galaxy S23 FE は 2023 年 10 月初めに発表された同社の最新版のままです。

Motorola Razr 50s は初期リークで新たな予算を折り畳める可能性があることを示す Motorola Razr 50s は初期リークで新たな予算を折り畳める可能性があることを示す Sep 07, 2024 am 09:35 AM

Motorola は今年数え切れないほどのデバイスをリリースしましたが、そのうち折りたたみ式デバイスは 2 つだけです。ちなみに、世界の大部分ではこのペアが Razr 50 および Razr 50 Ultra として受け入れられていますが、Motorola は北米では Razr 2024 および Razr 2 として提供しています。

Xiaomi Redmi Note 14 Pro Plusは、Light Hunter 800カメラを搭載した初のQualcomm Snapdragon 7s Gen 3スマートフォンとして登場します Xiaomi Redmi Note 14 Pro Plusは、Light Hunter 800カメラを搭載した初のQualcomm Snapdragon 7s Gen 3スマートフォンとして登場します Sep 27, 2024 am 06:23 AM

Redmi Note 14 Pro Plusは、昨年のRedmi Note 13 Pro Plus(Amazonで現在375ドル)の直接の後継者として正式に発表されました。予想通り、Redmi Note 14 Pro Plusは、Redmi Note 14およびRedmi Note 14 Proと並んでRedmi Note 14シリーズをリードします。李

See all articles