Hadoop也可以运行在一个伪分布模式,每个Hadoop守护进程运行在一个单独的Java程序的一个节点。 伪分布模式需要在单机模式基础上进行配置。 在/software/hadoop/etc/hadoop/ 目录下 core-site.xml,hdfs-site.xml,mapred-site.xml,yarn-site.xml等文件。 下面
Hadoop也可以运行在一个伪分布模式,每个Hadoop守护进程运行在一个单独的Java程序的一个节点。
伪分布模式需要在单机模式基础上进行配置。
在/software/hadoop/etc/hadoop/ 目录下
core-site.xml,hdfs-site.xml,mapred-site.xml,yarn-site.xml等文件。
下面对以上文件进行配置。
一、etc/hadoop/core-site.xml
包含了hadoop启动时的配置信息。
<code><span>configuration</span>> <span>property</span>> <span>name</span>>fs.defaultFS<span><span>name</span>></span> <span>value</span>>hdfs://localhost:9000<span><span>value</span>></span> <span><span>property</span>></span> <span><span>configuration</span>></span></code>
二、etc/hadoop/hdfs-site.xml
用来配置集群中每台主机都可用,指定主机上作为namenode和datanode的目录。
<code><span>configuration</span>> <span>property</span>> <span>name</span>>dfs.replication<span><span>name</span>></span> <span>value</span>>1<span><span>value</span>></span> <span><span>property</span>></span> <span><span>configuration</span>></span></code>
三、etc/hadoop/mapred-site.xml
默认情况下,/usr/local/hadoop/etc/hadoop/文件夹下有mapred.xml.template文件,我们要复制该文件,并命名为mapred.xml,该文件用于指定MapReduce使用的框架
<code><span>configuration</span>> <span>property</span>> <span>name</span>>mapreduce.framework.name<span><span>name</span>></span> <span>value</span>>yarn<span><span>value</span>></span> <span><span>property</span>></span> <span><span>configuration</span>></span></code>
四、etc/hadoop/yarn-site.xml
包含了MapReduce启动时的配置信息。
<code><span>configuration</span>> <span>property</span>> <span>name</span>>yarn.nodemanager.aux-services<span><span>name</span>></span> <span>value</span>>mapreduce_shuffle<span><span>value</span>></span> <span><span>property</span>></span> <span><span>configuration</span>></span></code>
五、格式化hdfs
<code> hdfs namenode -<span>format</span> </code>
只需要执行一次即可,如果在hadoop已经使用后再次执行,会清除掉hdfs上的所有数据。
六、启动Hadoop
经过上文所描述配置和操作后,下面就可以启动这个单节点的集群
执行启动命令:
<code> sbin/<span><span>start</span>-dfs.sh </span></code>
执行该命令时,如果有yes /no提示,输入yes,回车即可。
接下来,执行:
<code>sbin/<span><span>start</span>-yarn.sh </span></code>
执行完这两个命令后,Hadoop会启动并运行。
执行 jps
命令,会看到Hadoop相关的进程。
浏览器打开 http://localhost:50070/,会看到hdfs管理页面。
浏览器打开 http://localhost:8088,会看到hadoop进程管理页面。
七、WordCount验证
dfs上创建input目录
<code>bin/hadoop fs <span>-mkdir</span> <span>-p</span> input</code>
把hadoop目录下的README.txt拷贝到dfs新建的input里
<code>hadoop fs -copyFromLocal README<span>.txt</span> input</code>
运行WordCount
<code>hadoop jar share/hadoop/mapreduce/sources/hadoop-mapreduce-examples-<span>2.5</span><span>.2</span>-sources<span>.jar</span> org<span>.apache</span><span>.hadoop</span><span>.examples</span><span>.WordCount</span> input output</code>
执行过程:
运行完毕后,查看单词统计结果
<code>hadoop fs <span>-cat</span> output<span>/*</span></code>