1、环境说明 集群环境至少需要3个节点(也就是3台服务器设备):1个Master,2个Slave,节点之间局域网连接,可以相互ping通,下面举例说明,配置节点IP分配如下: Hostname IP 新建用户 新建用户密码 Master 10.10.10.213 hadoop 123456 Slave1 10.10.10.214
集群环境至少需要3个节点(也就是3台服务器设备):1个Master,2个Slave,节点之间局域网连接,可以相互ping通,下面举例说明,配置节点IP分配如下:
Hostname | IP | 新建用户 | 新建用户密码 |
Master | 10.10.10.213 | hadoop | 123456 |
Slave1 | 10.10.10.214 | hadoop | 123456 |
Slave2 | 10.10.10.215 | hadoop | 123456 |
三个节点均使用centos?6.3系统,为了便于维护,集群环境配置项最好使用相同用户名、用户密码、相同hadoop、hbase、zookeeper目录结构。
为了集群能够正常稳定的运行,我们需要将每个节点的hostname分别配置为对应的Master、Slave1、Slave2。
(1)在Master服务器中执行以下命令:
1 |
|
1 |
|
1 |
|
(2)在Slave1服务器中执行以下命令:
1 |
|
1 |
|
1 |
|
(3)在Slave2服务器中执行以下命令:
1 |
|
1 |
|
1 |
|
分别在三个节点下通过如下命令修改hosts映射关系:
1 |
|
添加内容如下:
1 2 3 |
|
Hadoop集群必须依赖JDK环境,所以这里我们首先需要配置好JDK环境,同样为了管理,我们建议服务器中的节点JDK安装环境均在相同路径下。
拷贝jdk文件jdk-6u25-linux-x64.bin到/usr/lib/java文件目录(该目录可自行定义)下,解压安装包,如果文件权限被限制,可通过如下命令进行赋权限操作:
1 |
|
1 |
|
在最后加上:
1 2 3 |
|
通过注销或者以下命令使修改生效:
1 |
|
1 |
|
如果查看当前的JDK版本不是刚才设置的JDK版本,则可以进行默认JDK版本设置操作:
1 2 3 |
|
Centos系统安装时默认可以选择安装SSH,ubuntu下可以通过如下命令进行安装(前提是必须联网):
1 2 |
|
为了hadoop集群的安全与方便管理,我们要另外新建用户,并设置密码,命令如下:
1 2 |
|
上述命令中,第一行命令新建了一个user为hadoop的用户,第二行命令是为这个hadoop用户设置密码,同样最好服务器之间均保持一致。
集群环境的使用必须通过ssh无密码登陆来执行,本机登陆本机必须无密码登陆,主机与从机之间必须可以双向无密码登陆,从机与从机之间无限制。以本次为例,比如Master与Slave1之间的无密码登陆设置步骤如下:
(1)进入Master服务器,进行无密码自登陆设置
1 2 3 4 |
|
如果不知道是否配置成功,可通过如下命令进行验证:
1 |
|
进入Slave1服务器,进行无密码自登陆设置,操作同上,只需将对应的Master改为Slave1即可,此处省略。
(2)进入Master服务器,设置Master->Slave1的无密码登陆
1 2 3 |
|
(3)进入Slave1服务器,设置Slave1->Master的无密码登陆
1 2 3 |
|
以上便是Master与Slave1之间的双向无密码登陆配置。Master与Slave2之间的配置原理同上述基本一样,所以不再赘述。
在centos系统下解压hadoop安装包hadoop-1.0.3.tar.gz,修改conf目录下的6个文件:
(1)core-site.xml1 2 |
|
在该文件中加上如下一行代码:
1 |
|
(3)hdfs-site.xml
1 2 3 4 5 6 7 8 9 |
|
(4)mapred-site.xml
1 2 3 4 |
|
(5)Masters
1 |
|
(6)Slaves
1 2 |
|
将解压修改后的hadoop-1.0.3文件夹分别拷贝到Master、Slave1、Slave2的相同hadoop安装路径下。
进入Master的hadoop-1.0.3目录,执行以下操作:
1 2 3 |
|
至此,hadoop集群配置过程结束。可通过浏览器地址http://10.10.10.213:50070?查看节点启用状态验证配置是否成功。
在centos系统下解压zookeeper安装包zookeeper-3.4.3.tar.gz?,进入到conf目录,将zoo_sample.cfg拷贝一份命名为zoo.cfg(Zookeeper?在启动时会找这个文件作为默认配置文件),打开该文件进行修改为以下格式(注意权限问题,如果最后配置有问题请检查过程中权限是否正确)。
1 2 3 4 |
|
(本次配置myid文件放在/home/hadoop/temp/zookeeper/data目录下)
1 2 |
|
注意myid文件中的内容为:Master中为0,Slave1中为1,Slave2中为2,分别与zoo.cfg中对应起来。
将解压修改后的zookeeper-3.4.3文件夹分别拷贝到Master、Slave1、Slave2的相同zookeeper安装路径下。注意:myid文件的内容不是一样的,各服务器中分别是对应zoo.cfg中的设置。
Zookeeper的启动与hadoop不一样,需要每个节点都执行,分别进入3个节点的zookeeper-3.4.3目录,启动zookeeper:
1 |
|
待3台服务器均启动后,如果过程正确的话zookeeper应该已经自动选好leader,进入每台服务器的zookeeper-3.4.3目录,执行以下操作查看zookeeper启动状态:
1 |
|
如果出现以下代码表示安装成功了。
1 2 3 4 |
|
在centos系统下解压hadoop安装包hadoop-1.0.3.tar.gz,修改conf目录下的3个文件:
(1)hbase-env.sh
1 2 3 |
|
(2)hbase-site.xml
1 2 3 4 5 6 7 8 9 10 11 12 |
|
(3)regionservers
1 2 |
|
将解压修改后的hbase-0.94.1-security文件夹分别拷贝到Master、Slave1、Slave2的相同hbase安装路径下。
进入Master的hbase-0.94.1-security目录,执行以下操作:
1 |
|
至此,hbase服务配置过程结束。可通过浏览器地址http://10.10.10.213:60010?查看hbase是否可用。
也可以执行以下命令,进入hbase?shell进行验证。
关于hadoop、zookeeper、hbase的启动与关闭顺序:启动时hadoop和zookeeper随意先后,但是hbase必须最后启动,关闭时hbase必须首先关闭,然后随意先后关闭hadoop、zookeeper。否则,会出现异常。
关于各软件的安装包可以去官网下载,不同版本的安装配置可能会有少许的变动,而且版本搭配如果不一样的话也可能出现问题,有问题就针对性地去查,这样学习才有进步。
作者:jinnchang 发表于2013-5-8 16:29:30 原文链接
阅读:44 评论:0 查看评论
原文地址:分布式集群环境hadoop、hbase、zookeeper搭建(全), 感谢原作者分享。