목차
一、配置hosts文件
二、建立hadoop运行帐号
三、配置ssh免密码连入
四、下载并解压hadoop安装包
五、配置namenode之修改site文件
六、配置hadoop-env.sh文件
七、配置masters和slaves文件
八、向各节点复制hadoop
九、格式化namenode
十、启动hadoop
十一、用jps检验各后台进程是否成功启动
十二、通过webUI查看集群情况
附:基于Hadoop-0.20.2的完全分布式的wordcount运行
데이터 베이스 MySQL 튜토리얼 基于Hadoop-0.20.2的完全分布式集群搭建详细过程

基于Hadoop-0.20.2的完全分布式集群搭建详细过程

Jun 07, 2016 pm 04:38 PM
분산 기반으로 짓다 무리

之前的学习都是基于伪分布式环境,但是要想深入学习hadoop数据分析技术,就必须将hadoop集群搭建起来。 说来简单,但是应该怎么做呢?不急,本文的主要目的就是流水式的记录,看了之后也能够亲自动手实施这些过程。由于资源问题,只能通过虚拟机来实施模 拟

之前的学习都是基于伪分布式环境,但是要想深入学习hadoop数据分析技术,就必须将hadoop集群搭建起来。

说来简单,但是应该怎么做呢?不急,本文的主要目的就是流水式的记录,看了之后也能够亲自动手实施这些过程。由于资源问题,只能通过虚拟机来实施模 拟集群环境,虽然说是虚机模拟,但是在虚机上的hadoop的集群搭建过程也可以使用在实际的物理节点中,思想是一样的。如果你有足够的节点也可以在虚拟 机上进行一些其它实验测试,这是最好不过的了。

资源介绍:

笔记本一台(自己的) 内存4G 双核四线程

台式机一台(导师的) 内存4G 双核四线程

两台电脑软件情况:

Win7 64位

Vmware-9.0.2

虚拟机情况:

ubuntu-12.04

hadoop-0.20.2

jdk-8u5-linux-i586-demos

准备过程:

环境准备:《搭建Hadoop-0.20.2环境(伪分布式)》 附:后面多次使用。
节点准备:

其实这一步骤非常简单,如果你已经完成了搭建Hadoop-0.20.2环境(伪分布式)这一步,此时你已经准备好了第一个虚拟节点,那第二个和第 三个虚拟机节点如何准备?可能你已经想明白了,你可以按之前那一步的方法,再分别安装两遍Ubuntu系统,就分别实现了第二、三个虚拟机节点。不过这个 过程估计会让你很崩溃,其实还有一个更简单的方法,就是复制和粘贴,没错,就是在你刚安装好的第一个虚拟机节点,将整个系统目录进行复制,形成第二和第三 个虚拟机节点。简单吧。

说明1:其实在这里如果你在复制第一个节点的时候已经将伪分布式环境搭建好,那么复制第二个节点,第三个节点的时候那么SSH已经可以互通。

说明2:如果在第一个节点已经实现伪分布式环境基础上复制的第二个、第三个节点,需要重新配置三个节点中conf文件夹中配置文件。

很多人也许会问,这三个结点有什么用,原理很简单,按照hadoop集群的基本要求,其中一个是master结点,主要是用于运行hadoop程序 中的namenode、secondorynamenode和jobtracker任务。用外两个结点均为slave结点,其中一个是用于冗余目的,如果 没有冗余,就不能称之为hadoop了,所以模拟hadoop集群至少要有三个结点,如果电脑配置非常高,可以考虑增加一些其它的结点。slave结点主 要将运行hadoop程序中的datanode和tasktracker任务。

所以,在准备好这三个结点之后,需要分别将linux系统的主机名重命名(因为前面是复制和粘帖操作产生另两上结点,此时这3个结点的主机名是一样的),重命名主机名的方法:

<code>sudo gedit /etc/hostname
</code>
로그인 후 복사

通过修改hostname文件即可,这三个点结均要修改,以示区分。

以下是我对三个结点的ubuntu系统主机分别命名为:s15(master), s17(slave), s18(slave)

搭建流程:

一、配置hosts文件

二、建立hadoop运行帐号

三、配置ssh免密码连入

四、下载并解压hadoop安装包

五、配置namenode之修改site文件

六、配置hadoop-env.sh文件

七、配置masters和slaves文件

八、向各节点复制hadoop

九、格式化namenode

十、启动hadoop

十一、用jps检验各后台进程是否成功启动

十二、通过webUI查看集群情况

一、配置hosts文件

先简单说明下配置hosts文件的作用,它主要用于确定每个结点的IP地址,方便后续master(s15)结点能快速查到并访问各个结点。在上述 3个虚机结点上均需要配置此文件。由于需要确定每个结点的IP地址,所以在配置hosts文件之前需要先查看当前虚机结点的IP地址是多少,可以通过 ifconfig命令进行查看,如本实验中,s15,s17,s18结点的IP地址分别为:

<code>192.168.130.235
192.168.130.237
192.168.130.238
</code>
로그인 후 복사

如果IP地址不在同一局域网内可以通过ifconfig命令更改结点的IP地址,如果你需要修改很多节点IP,可通过shell脚本来分别执行,省时简单,脚本如下:

<code>#!/bin/bash
sudo ifconfig eth0 192.168.130.235
sudo route add default gw 192.168.130.1
</code>
로그인 후 복사

在这里IP地址和网关修改成你自己需要的,注意:
1.每个节点IP不一样,运行前需修改。
2.脚本没权限,需添加权限。

<code>sudo chown +x 脚本的名字.sh
</code>
로그인 후 복사

3.每次重启虚拟机,IP需重新设置。

将每个结点的IP地址设置完成后,就可以配置每个节点的hosts文件了。执行

<code>sudo gedit /etc/hosts
</code>
로그인 후 복사

添加:

<code>192.168.130.235 s15
192.168.130.237 s17
192.168.130.238 s18
</code>
로그인 후 복사

格式:

<code>节点IP 别名
</code>
로그인 후 복사

二、建立hadoop运行帐号

即为hadoop集群专门设置一个用户组及用户,这部分比较简单,参考示例如下:

<code>sudo groupadd hadoop//设置hadoop用户组
sudo useradd –s /bin/bash –d /home/hadoop –m hadoop –g hadoop –G admin   //添加一个hadoop用户,此用户属于hadoop用户组,且具有admin权限。  
sudo passwd 123456   //设置用户hadoop登录密码
su hadoop   //切换到hadoop用户中
</code>
로그인 후 복사

上述三个节点均需要进行以上步骤来完成hadoop运行帐号的建立。

特别说明:如果之前按照《搭建Hadoop-0.20.2环境(伪分布式)》已经搭建好伪分布式环境再复制第二个、第三个节点,上述添加运行账号可略过。

三、配置ssh免密码连入

这一环节最为重要,而且也最为关键,如果这一步走成功了,后面环节进行的也会比较顺利。

SSH主要通过RSA算法来产生公钥与私钥,在数据传输过程中对数据进行加密来保障数据的安全性和可靠性,公钥部分是公共部分,网络上任一结点均可 以访问,私钥主要用于对数据进行加密,以防他人盗取数据。总而言之,这是一种非对称算法,想要破解还是非常有难度的。Hadoop集群的各个结点之间需要 进行数据的访问,被访问的结点对于访问用户结点的可靠性必须进行验证,hadoop采用的是ssh的方法通过密钥验证及数据加解密的方式进行远程安全登录 操作,当然,如果hadoop对每个结点的访问均需要进行验证,其效率将会大大降低,所以才需要配置SSH免密码的方法直接远程连入被访问结点,这样将大 大提高访问效率。

1.每个结点分别产生公私密钥。可参考《搭建Hadoop-0.20.2环境(伪分布式)》中的搭建流程中的第五步:安装ssh服务。有图有真相。
2.单机回环ssh免密码登录测试。即在单机结点上用ssh进行登录,看能否登录成功。登录成功后注销退出。在第一步已经进行登陆测试了。
3.让主结点(master)能通过SSH免密码登录两个子结点(slave)。 为了实现这个功能,两个slave结点的公钥文件中必须要包含主结点的公钥信息,这样当master就可以顺利安全地访问这两个slave结点了。操作过程如下:

进入s17节点,

<code>cd .ssh
scp  hadoop@s15:~/.ssh/id_dsa.pub ./master_dsa.pub
cat master_dsa.pub >> authorized_keys
</code>
로그인 후 복사
로그인 후 복사
로그인 후 복사

进入s18节点,

<code>cd .ssh
scp  hadoop@s15:~/.ssh/id_dsa.pub ./master_dsa.pub
cat master_dsa.pub >> authorized_keys
</code>
로그인 후 복사
로그인 후 복사
로그인 후 복사

进入s15节点,

<code>cd .ssh
scp  hadoop@s15:~/.ssh/id_dsa.pub ./master_dsa.pub
cat master_dsa.pub >> authorized_keys
</code>
로그인 후 복사
로그인 후 복사
로그인 후 복사

在这里我并没有这样做,希望大家自己测试,如果有问题还望指出。

特别说明:如果之前按照《搭建Hadoop-0.20.2环境(伪分布式)》已经搭建好伪分布式环境再复制第二个、第三个节点,上述配置ssh免密码连入可略过。

四、下载并解压hadoop安装包

可参考《搭建Hadoop-0.20.2环境(伪分布式)》中的搭建流程中的第七步:安装hadoop(1-4)。

五、配置namenode之修改site文件

在本文中s15节点做为namenode,所以下面配置针对s15中的site文件。

1、打开conf/core-site.xml文件,编辑如下:

<code><?xml version="1.0"?>
<?xml-stylesheet type="text/xsl" href="http://www.cndwzone.com/archives/configuration.xsl"?>
<!-- Put site-specific property overrides in this file. -->
<configuration>
<property>
  <name>fs.default.name</name>
  <value>hdfs://s15:9000</value> 
 </property> 
<property>
  <name>hadoop.tmp.dir</name>
  <value>/usr/local/hadoop/tmp</value> 
 </property> 
</configuration>
</code>
로그인 후 복사

注意:如果按照之前的《搭建Hadoop-0.20.2环境(伪分布式)》搭建配置,对比不同。

2、打开conf/mapred-site.xml文件,编辑如下:

<code><?xml version="1.0"?>
<?xml-stylesheet type="text/xsl" href="http://www.cndwzone.com/archives/configuration.xsl"?>
<!-- Put site-specific property overrides in this file. -->
<configuration>
<property> 
  <name>mapred.job.tracker</name>
  <value>192.168.130.235:9001</value> 
 </property>
</configuration>
</code>
로그인 후 복사

注意1:如果按照之前的《搭建Hadoop-0.20.2环境(伪分布式)》搭建配置,对比不同。
注意2:192.168.130.235为master(s15)的IP。

3、打开conf/hdfs-site.xml文件,编辑如下:

<code><?xml version="1.0"?>
<?xml-stylesheet type="text/xsl" href="http://www.cndwzone.com/archives/configuration.xsl"?>
<!-- Put site-specific property overrides in this file. -->
<configuration>
  <property>  
    <name>dfs.name.dir</name>  
    <value>/usr/local/hadoop/hdfs/name</value>  
  </property>  
  <property>  
    <name>dfs.data.dir</name>  
    <value>/usr/local/hadoop/hdfs/data</value>  
  </property>  
  <property>  
    <name>dfs.replication</name>  
    <value>2</value>  
  </property> 
</configuration>
</code>
로그인 후 복사

注意1:如果按照之前的《搭建Hadoop-0.20.2环境(伪分布式)》搭建配置,对比不同。

六、配置hadoop-env.sh文件

每个节点这个需要根据实际情况来配置。参考《搭建Hadoop-0.20.2环境(伪分布式)》中的搭建流程的第七步:安装hadoop(6)。

七、配置masters和slaves文件

10、打开conf/masters文件,添加作为secondarynamenode的主机名,因为是完全分布式,只有一个节点,这里只需填写s15就可以。

11、打开conf/slaves文件,添加作为slave的主机名,一行一个。因为是完全分布式,只有两个个节点,添加:

<code>s17
s18
</code>
로그인 후 복사

八、向各节点复制hadoop

如果在一个节点设置hadoop,然后打包使用scp指令,复制其它节点解压即可。

特别说明:如果是复制已经搭建好的伪分布式环境,只需按照上述修改配置即可。

九、格式化namenode

如果之前在使用伪分布式的环境下格式化,使用过,需将hdfs,tmp文件删除。

然后在主节点master(s15)上,执行,

<code>bin/hadoop namenode -format
</code>
로그인 후 복사

注意:上面只要出现“successfully formatted”就表示成功了。

十、启动hadoop

这一步也在主结点master(s15)上进行操作,执行,

<code>bin/start-all.sh
</code>
로그인 후 복사

十一、用jps检验各后台进程是否成功启动

在主结点master(s15)上执行jps查看namenode,jobtracker,secondarynamenode进程是否启动。

在s17和s18结点执行jps查看datanode和tasktracker进程是否启动。

十二、通过webUI查看集群情况

在浏览器中输入:http://192.168.130.235:50030,网址中的IP为master(s15)结点所对应的IP地址。

至此,基于hadoop-0.20.2的完全分布式集群已经全部搭建完成。


附:基于Hadoop-0.20.2的完全分布式的wordcount运行

<code>bin/hadoop jar hadoop-0.20.2-examples.jar wordcount input output
</code>
로그인 후 복사

操作同伪分布式模式下,详情参考《运行WordCount》

본 웹사이트의 성명
본 글의 내용은 네티즌들의 자발적인 기여로 작성되었으며, 저작권은 원저작자에게 있습니다. 본 사이트는 이에 상응하는 법적 책임을 지지 않습니다. 표절이나 침해가 의심되는 콘텐츠를 발견한 경우 admin@php.cn으로 문의하세요.

핫 AI 도구

Undresser.AI Undress

Undresser.AI Undress

사실적인 누드 사진을 만들기 위한 AI 기반 앱

AI Clothes Remover

AI Clothes Remover

사진에서 옷을 제거하는 온라인 AI 도구입니다.

Undress AI Tool

Undress AI Tool

무료로 이미지를 벗다

Clothoff.io

Clothoff.io

AI 옷 제거제

Video Face Swap

Video Face Swap

완전히 무료인 AI 얼굴 교환 도구를 사용하여 모든 비디오의 얼굴을 쉽게 바꾸세요!

뜨거운 도구

메모장++7.3.1

메모장++7.3.1

사용하기 쉬운 무료 코드 편집기

SublimeText3 중국어 버전

SublimeText3 중국어 버전

중국어 버전, 사용하기 매우 쉽습니다.

스튜디오 13.0.1 보내기

스튜디오 13.0.1 보내기

강력한 PHP 통합 개발 환경

드림위버 CS6

드림위버 CS6

시각적 웹 개발 도구

SublimeText3 Mac 버전

SublimeText3 Mac 버전

신 수준의 코드 편집 소프트웨어(SublimeText3)

노드는 Proxmox VE에서 완전히 대피하고 클러스터에 다시 합류합니다. 노드는 Proxmox VE에서 완전히 대피하고 클러스터에 다시 합류합니다. Feb 21, 2024 pm 12:40 PM

ProxmoxVE에서 노드를 완전히 제거하고 클러스터에 다시 합류하는 시나리오 설명 ProxmoxVE 클러스터의 노드가 손상되어 신속하게 복구할 수 없는 경우 결함이 있는 노드를 클러스터에서 완전히 추방하고 잔여 정보를 정리해야 합니다. 그렇지 않으면 결함이 있는 노드가 사용하는 IP 주소를 사용하는 새 노드는 클러스터에 정상적으로 합류할 수 없습니다. 마찬가지로 클러스터에서 분리된 결함이 있는 노드가 복구된 후에는 클러스터와 관련이 없지만 이 단일 노드의 웹 관리에 액세스할 수 없습니다. 백그라운드에서 원래 ProxmoxVE 클러스터의 다른 노드에 대한 정보가 표시되므로 매우 짜증납니다. 클러스터에서 노드를 제거합니다. ProxmoxVE가 Ceph 하이퍼 수렴형 클러스터인 경우 호스트 시스템 Debian에서 클러스터의 모든 노드(삭제하려는 노드 제외)에 로그인하고 명령을 실행해야 합니다.

Mistlock Kingdom의 야생에서도 건물을 지을 수 있나요? Mistlock Kingdom의 야생에서도 건물을 지을 수 있나요? Mar 07, 2024 pm 08:28 PM

플레이어는 Mistlock 왕국에서 플레이할 때 건물을 짓기 위해 다양한 재료를 수집할 수 있습니다. 많은 플레이어가 야생에서 건물을 지을 수 있는지 알고 싶어합니다. Mistlock 왕국에서는 건물이 제단 범위 내에 있어야 합니다. . Mistlock Kingdom에서는 야생에 건물을 지을 수 있나요? 답변: 아니요. 1. 미스트락 왕국의 야생 지역에는 건물을 지을 수 없습니다. 2. 건물은 제단의 범위 내에서 건축되어야 한다. 3. 플레이어 스스로 Spirit Fire Altar를 설치할 수 있지만, 범위를 벗어나면 건물을 지을 수 없습니다. 4. 산에 직접 구멍을 파서 집으로 삼을 수도 있어 건축자재를 소모할 필요가 없습니다. 5. 플레이어가 직접 지은 건물에는 편안함 메커니즘이 있습니다. 즉, 인테리어가 좋을수록 편안함이 높아집니다. 6. 높은 편안함은 플레이어에게 다음과 같은 속성 보너스를 제공합니다.

Redis를 사용하여 분산 데이터 동기화를 달성하는 방법 Redis를 사용하여 분산 데이터 동기화를 달성하는 방법 Nov 07, 2023 pm 03:55 PM

Redis를 사용하여 분산 데이터 동기화를 달성하는 방법 인터넷 기술의 발전과 점점 더 복잡해지는 애플리케이션 시나리오로 인해 분산 시스템의 개념이 점점 더 널리 채택되고 있습니다. 분산 시스템에서는 데이터 동기화가 중요한 문제입니다. 고성능 인메모리 데이터베이스인 Redis는 데이터를 저장하는 데 사용될 수 있을 뿐만 아니라 분산된 데이터 동기화를 달성하는 데에도 사용할 수 있습니다. 분산 데이터 동기화에는 일반적으로 게시/구독(Publish/Subscribe) 모드와 마스터-슬레이브 복제(Master-slave)의 두 가지 공통 모드가 있습니다.

Redis가 분산 세션 관리를 구현하는 방법 Redis가 분산 세션 관리를 구현하는 방법 Nov 07, 2023 am 11:10 AM

Redis가 분산 세션 관리를 구현하려면 특정 코드 예제가 필요합니다. 분산 세션 관리는 오늘날 인터넷에서 뜨거운 주제 중 하나입니다. 높은 동시성과 대용량 데이터에 직면하여 기존 세션 관리 방법은 점차 부적절해지고 있습니다. 고성능 키-값 데이터베이스인 Redis는 분산 세션 관리 솔루션을 제공합니다. 이 기사에서는 Redis를 사용하여 분산 세션 관리를 구현하는 방법을 소개하고 특정 코드 예제를 제공합니다. 1. 분산 세션 저장소인 Redis 소개 전통적인 세션 관리 방법은 세션 정보를 저장하는 것입니다.

분산 작업 스케줄링 및 실행을 구현하기 위해 MongoDB를 사용한 경험 공유 분산 작업 스케줄링 및 실행을 구현하기 위해 MongoDB를 사용한 경험 공유 Nov 02, 2023 am 09:39 AM

MongoDB는 고성능, 확장성 및 유연성을 갖춘 오픈 소스 NoSQL 데이터베이스입니다. 분산 시스템에서는 작업 스케줄링 및 실행이 핵심 문제입니다. MongoDB의 특성을 활용하여 분산 작업 스케줄링 및 실행 솔루션을 구현할 수 있습니다. 1. 분산 작업 스케줄링을 위한 요구 사항 분석 분산 시스템에서 작업 스케줄링은 실행을 위해 여러 노드에 작업을 할당하는 프로세스입니다. 일반적인 작업 예약 요구 사항은 다음과 같습니다. 1. 작업 요청 배포: 사용 가능한 실행 노드에 작업 요청을 보냅니다.

Docker를 사용하여 다중 노드 클러스터를 관리하고 확장하는 방법 Docker를 사용하여 다중 노드 클러스터를 관리하고 확장하는 방법 Nov 07, 2023 am 10:06 AM

오늘날의 클라우드 컴퓨팅 시대에 컨테이너화 기술은 오픈 소스 세계에서 가장 인기 있는 기술 중 하나가 되었습니다. Docker의 등장으로 클라우드 컴퓨팅은 더욱 편리하고 효율적이게 되었으며, 개발자와 운영 및 유지 관리 담당자에게 없어서는 안 될 도구가 되었습니다. 다중 노드 클러스터 기술의 적용은 Docker 기반으로 널리 사용됩니다. 다중 노드 클러스터 배포를 통해 리소스를 보다 효율적으로 활용하고, 안정성과 확장성을 향상시키며, 배포 및 관리에 있어 보다 유연해질 수 있습니다. 다음으로 Docker를 사용하는 방법을 소개하겠습니다.

Swoole을 사용하여 분산 예약 작업 예약을 구현하는 방법 Swoole을 사용하여 분산 예약 작업 예약을 구현하는 방법 Nov 07, 2023 am 11:04 AM

Swoole을 사용하여 분산 예약 작업 예약을 구현하는 방법 소개: 기존 PHP 개발에서는 예약 작업 예약을 구현하기 위해 cron을 사용하는 경우가 많습니다. 그러나 cron은 단일 서버에서만 작업을 실행할 수 있으며 높은 동시성 시나리오에 대처할 수 없습니다. Swoole은 PHP를 기반으로 하는 고성능 비동기 동시성 프레임워크로, 완전한 네트워크 통신 기능과 다중 프로세스 지원을 제공하여 분산 예약 작업 스케줄링을 쉽게 구현할 수 있습니다. 이 기사에서는 Swoole을 사용하여 분산 예약 작업 스케줄링을 구현하는 방법을 소개합니다.

Redis를 사용하여 분산 캐시 일관성 달성 Redis를 사용하여 분산 캐시 일관성 달성 Nov 07, 2023 pm 12:05 PM

Redis를 사용하여 분산 캐시 일관성 달성 현대 분산 시스템에서 캐시는 매우 중요한 역할을 합니다. 이는 데이터베이스에 대한 시스템 액세스 빈도를 크게 줄이고 시스템 성능과 처리량을 향상시킬 수 있습니다. 분산 시스템에서 캐시 일관성을 보장하려면 여러 노드 간의 데이터 동기화 문제를 해결해야 합니다. 이 기사에서는 Redis를 사용하여 분산 캐시 일관성을 달성하는 방법을 소개하고 구체적인 코드 예제를 제공합니다. Redis는 지속성, 복제 및 수집을 지원하는 고성능 키-값 데이터베이스입니다.

See all articles