yarn yrun spark-1.6.0.pdfのyarn
3.1. ダウンロード 2
3.3. conf/spark の変更-env .sh 3
4. Spark 3 を起動します
4.1. 組み込みサンプルを実行します 3
4.2.SparkSQLCli4
5. 一般的なエラー 5
6.1. thequeue 5
6.2.SPARK_CLASSPATHwasdetected6
7.関連ドキュメント6
1. 同意事項
この記事は、Hadoop2.7.1 が /data/hadoop/current にインストールされ、Spark1.6.0 が /data/ にインストールされることに同意します。 hadoop/spark。ここで、/data/hadoop/spark は /data/hadoop/spark を指します。
Spark の公式 Web サイトは: http://spark.apache.org/ (Shark の公式 Web サイトは: http://shark.cs.berkeley.edu/、Shark は Spark のモジュールになっており、インストールする必要はありません)別々に)。
Spark をクラスター モードで実行します。クライアント モードは導入されません。
2. Scala をインストールする
Ecole Polytechnique Fédérale de Lausanne (EPFL) の Martin Odersky は、Funnel の成果に基づいて 2001 年に Scala の設計を開始しました。
Scala は、純粋なオブジェクト指向プログラミングと関数型プログラミングのさまざまな機能を統合するように設計されたマルチパラダイム プログラミング言語です。 Java 仮想マシン JVM 上で実行され、既存の Java プログラムと互換性があり、Java クラス ライブラリを呼び出すことができます。 Scala にはコンパイラーとクラス ライブラリが含まれており、BSD ライセンスに基づいてリリースされます。
2.1. ダウンロード
Spark は Scala を使用して開発されています。Spark をインストールする前に、まず各セクションに Scala をインストールします。 Scala の公式 Web サイトは http://www.scala-lang.org/ で、ダウンロード URL は http://www.scala-lang.org/download/ です。この記事では、バイナリ インストール パッケージ scala-2.11 をダウンロードします。 7.tgz。
2.2. インストール
インストール方法は非常に簡単で、scala-2.11.7.tgzを/dataディレクトリにアップロードし、scala-2.11.7.tgzを/data/ディレクトリに解凍します。
次に、ソフトリンクを作成します: ln-s/data/scala-2.11.7/data/scala。
2.3. 環境変数を設定する
exportPATH=$SCALA_HOME/bin:$PATH
3. Spark をインストールする
この記事では、Spark を Hadoop ユーザーとしてインストールします。
3.2. インストール
3) ソフトリンクを確立します: ln-sspark-1.6.0-bin-hadoop2.6spark Spark をすべてのマシンにインストールする必要はありません。1 台のマシンにのみインストールできます。 。ただし、Spark は、Spark がインストールされているマシン上でのみ実行できます。理由は簡単です。Spark を呼び出すファイルが必要だからです。 |
HADOOP_CONF_DIR=/data /hadoop /current/etc/hadoop
4. Sparkの起動
Yarn上で動作しているため、Sparkを起動する処理はありません。 。代わりに、spark-submit コマンドが実行されると、Spark は Yarn によって実行されるようにスケジュールされます。
--driver- Memory4g --executor-memory2g | --executor-cores1
lib/spark-examples*.jar10
行出:
16/02/0316:08:33INFOyarn.Client:Applicationreportforapplication_1454466109748_0007(state:RUNNING) 16/02/0316:0 8:34INFOyarn.Client:アプリケーションのアプリケーションレポート_1454466109748_0007(状態:実行中) 16/02/0316:08:35INFOyarn.Client:アプリケーションレポート_1454466109748_0007(状態:実行中) 16/02/0316:08:36INFOyarn.Client:アプリケーションレポート_1454466109748_0007 (状態:実行中) 16/02/0316:08: 37INFOyarn.Client:アプリケーションレポート_1454466109748_0007(状態:実行中) 16/02/0316:08:38INFOyarn.Client:アプリケーションレポート_1454466109748_0007(状態:実行中) 16/02/0316:08:38 0316:08:39INFOyarn.Client:アプリケーションのアプリケーションレポート_1454466109748_0007(状態:実行中) 16/02/0316:08:40INFOyarn.Client:Applicationreportforapplication_1454466109748_0007(state:FINISHED) 16/02/0316:08:40INFOyarn.Client: clienttoken:N/A 診断:該当なし ApplicationMasterhost:10.225.168.251 ApplicationMasterRPCport:0 queue:default starttime:1454486904755 finalstatus:SUCCEEDED trackingURL:http://hadoop-168-254:8088/ proxy/application_1454466109748_0007/ ユーザー:hadoop 16/02/0316:08:40INFOutil.ShutdownHookManager:シャットダウンフックが呼び出されます4c5eac |
16/02/0315:57:36INFOyarn.Client: クライアントトークン:N/A 診断:Applicationapplication_1454466109748_0004ユーザーhadoopにより不明なキューに送信されました:thequeue ApplicationMasterhost:N/A ApplicationMasterRPCport:-1 queue:thequeue starttime:1454486255907 finalstatus:FAILED trackingURL:http://hadoop-168-254 088/プロキシ/アプリケーション_1454466109748_0004/ ユーザー:hadoop 16/02/0315:57:36INFOyarn.Client:Deletingstagingdirectory.sparkStaging/application_1454466109748_0004 Exceptioninthread"main"org.apache.spark.SparkException:Applicationapplication_1454466 109748_0004finishedwithfailed ステータス atorg.apache.spark.deploy。糸 .Client.run(Client.scala:1029) atorg.apache.spark.deploy.yarn.Client$.main(Client.scala:1076) atorg.apache.spark.deploy.yarn.Client.main ( Client.scala) atsun.reflect.NativeMethodAccessorImpl.invoke0(NativeMethod) atsun.reflect.NativeMethodAccessorImpl.invoke(NativeMethodAccessorImpl.java:57) atsun.reflect.DelegatingMethodAccessorImpl.invoke(Deleg) ingMe thodAccessorImpl.java:43) atjava.lang.reflect.Method.invoke(Method.java:606) aorg.apache.spark.deploy.SparkSubmit$.org$apache$spark$deploy$SparkSubmit$$runMain(SparkSubmit.scala:731) atorg.apache.spark.deploy.SparkSubmit$.doRunMain$1(SparkSubmit.scala:181) atorg.apache.spark.deploy.SparkSubmit$.submit(SparkSubmit.scala:206) atorg.apache.spark .deploy .SparkSubmit$.main(SparkSubmit.scala:121) aorg.apache.spark.deploy.SparkSubmit.main(SparkSubmit.scala) 16/02/0315:57:36INFOutil.ShutdownHookManager:Shutdownhookcalled 16 /02 /0315:57:36INFOutil.ShutdownHookManager:ディレクトリの削除/tmp/spark-54531ae3-4d02-41be-8b9e-92f4b0f05807 |