wget --no-check-certificate https://repo.huaweicloud.com/java/jdk/8u151-b12/jdk-8u151-linux-x64.tar.gz
tar -zxvf jdk-8u151-linux-x64.tar.gz
mv jdk1.8.0_151/ /usr/java8
echo 'export JAVA_HOME=/usr/java8' >> /etc/profile echo 'export PATH=$PATH:$JAVA_HOME/bin' >> /etc/profile source /etc/profile
java -version
注: Hadoop インストール パッケージをダウンロードするには、Huawei ソースを選択できます (速度は中程度で許容範囲内、フル バージョンに重点が置かれています)。 、清華大学のソース (3.0.0 以降。バージョンのダウンロード速度が遅すぎてバージョンが少ない)、北京外国語大学のソース (ダウンロード速度は非常に速いですが、バージョンが少ない) - 私は個人的にテストしました
wget --no-check-certificate https://repo.huaweicloud.com/apache/hadoop/common/hadoop-3.1.3/hadoop-3.1.3.tar.gz
tar -zxvf hadoop-3.1.3.tar.gz -C /opt/ mv /opt/hadoop-3.1.3 /opt/hadoop
echo 'export HADOOP_HOME=/opt/hadoop/' >> /etc/profile echo 'export PATH=$PATH:$HADOOP_HOME/bin' >> /etc/profile echo 'export PATH=$PATH:$HADOOP_HOME/sbin' >> /etc/profile source /etc/profile
echo "export JAVA_HOME=/usr/java8" >> /opt/hadoop/etc/hadoop/yarn-env.sh echo "export JAVA_HOME=/usr/java8" >> /opt/hadoop/etc/hadoop/hadoop-env.sh
hadoop version
バージョン情報が返されれば、インストールは成功です。
a. 次のコマンドを実行して編集ページに入ります。
vim /opt/hadoop/etc/hadoop/core-site.xml
b. i と入力して編集モードに入ります。 c. 次のコンテンツを <configuration></configuration> ノードに挿入します。
<property> <name>hadoop.tmp.dir</name> <value>file:/opt/hadoop/tmp</value> <description>location to store temporary files</description> </property> <property> <name>fs.defaultFS</name> <value>hdfs://localhost:9000</value> </property>
d. Esc キーを押して編集モードを終了し、「wq」と入力して保存して終了します。
a. 次のコマンドを実行して編集ページに入ります。
vim /opt/hadoop/etc/hadoop/hdfs-site.xml
b. i と入力して編集モードに入ります。 c. 次のコンテンツを <configuration></configuration> ノードに挿入します。
<property> <name>dfs.replication</name> <value>1</value> </property> <property> <name>dfs.namenode.name.dir</name> <value>file:/opt/hadoop/tmp/dfs/name</value> </property> <property> <name>dfs.datanode.data.dir</name> <value>file:/opt/hadoop/tmp/dfs/data</value> </property>
d. Esc キーを押して編集モードを終了し、「wq」と入力して保存して終了します。
ssh-keygen -t rsa
cd ~ cd .ssh cat id_rsa.pub >> authorized_keys
エラーが報告された場合は、次の操作を実行してから、上記の 2 つのコマンドを再実行します。エラーが報告されない場合は、直接手順 5 に進みます。 #環境変数に次のコマンドを入力します。 次の構成を追加します。
vi /etc/profile
次に、次の内容をそれに追加します。export HDFS_NAMENODE_USER=root export HDFS_DATANODE_USER=root export HDFS_SECONDARYNAMENODE_USER=root export YARN_RESOURCEMANAGER_USER=root export YARN_NODEMANAGER_USER=root
次のコマンドを入力します。変更を有効にするには、source /etc/profile
5: Hadoop を開始します
hadoop namenode -format
start-dfs.sh
start-yarn.sh
3.
jps
通常は 6 つのプロセスがあります;
4.
#
以上がLinux に Hadoop をインストールする方法の詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。