Heim > Datenbank > MySQL-Tutorial > 基于Kickstart的Hadoop集群自动化部署

基于Kickstart的Hadoop集群自动化部署

WBOY
Freigeben: 2016-06-07 16:34:41
Original
2688 Leute haben es durchsucht

在 基于Kickstart PXE的CentOS无人值守安装 一文中,介绍了一种高度自动化的RedHat Linux安装方式。由于Kickstart支持脚本,利用Kickstart技术也可以实现Hadoop集群的自动化部署。本文试构建一种利用Kickstart脚本根据资源分配文件自动化部署Hadoop集群的方

在 基于Kickstart & PXE的CentOS无人值守安装 一文中,介绍了一种高度自动化的RedHat Linux安装方式。由于Kickstart支持脚本,利用Kickstart技术也可以实现Hadoop集群的自动化部署。本文试构建一种利用Kickstart脚本根据资源分配文件自动化部署Hadoop集群的方案。

Kickstart配置文件结构

Kickstart文件由三部分按规定顺序组成,每部分内部没有顺序要求。三部分按顺序分别为:[1]

  • 命令部分,这里应该包括必需的选项.
  • %packages部分,这部分选择需要安装的软件包.
  • %pre和%post部分,这两个部分可以按任何顺序排列而且不是必需的.

Ret Hat系列的Linux在安装过程中,Anaconda安装管理程序会创建一个简单的Kickstart文件,保存为/root/anaconda-ks.cfg。可以直接修改该文件来创建我们自己的Kickstart配置文件。下面是文本用到的基础Kickstart文件:

# Kickstart file automatically generated by anaconda.
#version=DEVEL
install
url --url=http://192.168.60.144/pxe/
lang zh_CN.UTF-8
keyboard us
network --onboot yes --device eth0 --bootproto dhcp --noipv6
#password=root
rootpw  --iscrypted $6$.L9W0uhR$TxVuurKHI254jwC9i0I6q/TPzJc.2RQYLy/YP.v5xfgzsOsP1ylRR0uvkLNP/ibfPmNiWkFrqtDJ.wBOJ5unu1
firewall --disabled
authconfig --enableshadow --passalgo=sha512
selinux --disabled
timezone --utc Asia/Shanghai
text
bootloader --location=mbr --driveorder=sda --append="crashkernel=auto rhgb quiet"
# The following is the partition information you requested
# Note that any partitions you deleted are not expressed
# here so unless you clear all partitions first, this is
# not guaranteed to work
zerombr
#autostep --autoscreenshot
#ignoredisk --only-use=sda
clearpart --all --drives=sda
part / --bytes-per-inode=4096 --fstype="ext4" --size=4096
part /boot --bytes-per-inode=4096 --fstype="ext4" --size=100
part swap --bytes-per-inode=4096 --fstype="swap" --size=1024
part /home --bytes-per-inode=4096 --fstype="ext4" --grow --size=1
#repo --name="CentOS"  --baseurl=cdrom:sr0 --cost=100
%packages --nobase
@core
%end
halt
Nach dem Login kopieren

该文件并未包含%post脚本,将会在后文用脚本添加。

%pre是Kickstart预安装脚本,可以在ks.cfg文件被解析后马上加入要运行的命令.这个部分必须处于kickstart文件的最后(在命令部分之后)而且必须用%pre命令开头.可以在%pre部分访问网络;然而,此时命名服务还未被配置,所以只能使用IP地址。需要注意的是,预安装脚本不在改换了的根环境(chroot)中运行。

%pre部分常用选项
--interpreter /usr/bin/python,允许指定不同的脚本语言,如Python.把/usr/bin/python替换成想使用的脚本语言. [2]

%post部分是安装后脚本,这部分内容必须在kickstart的最后而且用%post命令开头.它被用于实现某些功能,如安装其他的软件和配置其他的命名服务器.
需要注意的是,如果用静态IP信息和命名服务器配置网络,可以在%post部分访问和解析IP地址.如果使用DHCP配置网络,当安装程序执行到%post部分时,/etc/resolv.conf文件还没有准备好.此时,可以访问网络,但是不能解析IP地址.因此,如果使用DHCP,必须在%post部分指定IP地址.另外,post-install 脚本是在 chroot 环境里运行的.因此,某些任务如从安装介质复制脚本或RPM将无法执行. [3]
%post部分常用选项:

--nochroot #允许指定想在chroot环境之外运行的命令.
下例把安装介质中的/etc/resolv.conf文件复制到刚安装的文件系统里.

%post --nochroot 
cp /etc/resolv.conf /mnt/sysimage/etc/resolv.conf
Nach dem Login kopieren

--interpreter /usr/bin/python #允许指定不同的脚本语言,如Python.把/usr/bin/python替换成想使用的脚本语言.
--log=/tmp/post-install.log #指定post脚本执行日志的保存路径

本文利用post脚本实现Hadoop集群的安装与自动配置。

Hadoop集群资源分配文件结构

资源分配文件用于Hadoop集群的网络资源分配。post脚本根据本机MAC地址查找资源分配文件,获取本机的主机名、IP地址等信息,然后自动配置。其中MAC地址需要事先知道,服务器一般厂商会提供。虚拟机需要自己指定。这里注意,VMware中不要用自动生成MAC地址功能,生成的 00:50:56开头的一开机就会变成00:0C:29,所以需要手动指定以 00:0C:29开头的MAC地址。

一个示例资源分配文件

#主机名       MAC地址        IP地址         掩码         网关      运行进程           集群角色 标识
Master 00:0C:29:11:00:00 192.168.60.20 255.255.255.0 192.168.60.2 NameNode,JobTracker  master  HADOOP
Slave1 00:0C:29:00:00:01 192.168.60.31 255.255.255.0 192.168.60.2 DataNode,TaskTracker slave   HADOOP
Slave2 00:0C:29:00:00:02 192.168.60.32 255.255.255.0 192.168.60.2 DataNode,TaskTracker slave   HADOOP
Nach dem Login kopieren

自动化部署方案

首先需要搭建能够进行Hadoop集群安装配置的PXE Installer服务器。该服务器提供Hadoop所需软件包、资源配置文件及Hadoop安装脚本[4]。本次实验集群中的每台机器都被配置为rsync服务器,以便同步Master的公钥文件。

拓扑结构如图所示:

Kickstart部署Hadoop拓扑结构

Kickstart部署Hadoop拓扑结构

部署流程图

PXE自动部署Hadoop流程图

PXE自动部署Hadoop流程图

实施部署

为PXE服务器配置脚本添加选项

修改 PXE服务器配置脚本,添加参数选项,增加配置Hadoop自动部署的函数。

#检查参数
[ $# -eq 0 ] && { PrintHelp; exit 1; }
[ $1 != "-d" ] && [ $1 != "-h" ] || [ $1 = "--help" ] && { PrintHelp; exit 1;}
if [ $1 = "-h" ]; then
	[ $# -eq 1 ] && { echo -e "Please specify the resourcefile. examples can be found at conf/network.conf. \nExample: ./init_pxeserver.sh -h conf/network.conf"; exit 1;}
	[ ! -f $2 ] && { echo -e "resourcefile error! please check resourcefile path\n"; exit 1;}
fi
Nach dem Login kopieren

根据参数将PXE Installer配置成不同类型,-d 为default,即Centos自动安装服务器,-h为Hadoop自动部署服务器。他们的不同主要是ks文件的不同。选项为-h时配置适用于Hadoop自动部署的ks文件。

[ $1 = "-h" ] && HadoopKS 2>&1 | tee -a /tmp/init_pxeserver.log
Nach dem Login kopieren

自动配置Hadoop ks文件

向默认的ks文件添加部署Hadoop的post脚本。用 cat > ks.cfg

根据资源分配文件配置网络信息

首先获取本机的MAC地址,然后以MAC地址为索引找到本机的IP,掩码,网关,主机名等信息,然后自动配置。脚本还配置了集群机器的hosts文件,添加集群所有主机的A记录。

curl -o network.conf http://$IPADDR/$CONFDIR/network.conf &>/dev/null && echo -e "[SUCC]: resourcefile download ok! "
MAC=`ifconfig eth0 |grep HWaddr |awk '{print \$5}'`
IP=`grep "\$MAC" network.conf |grep HADOOP |awk '{print \$3}'`
HOST=`grep "\$MAC" network.conf |grep HADOOP |awk '{print \$1}'`
NETMASK=`grep "\$MAC" network.conf |grep HADOOP |awk '{print \$4}'`
GATEWAY=`grep "\$MAC" network.conf |grep HADOOP |awk '{print \$5}'`
#set static ip addr
IFCFG=/etc/sysconfig/network-scripts/ifcfg-eth0
sed -i "s/BOOTPROTO.*/BOOTPROTO=static/g" \$IFCFG
echo "IPADDR=\$IP" >>\$IFCFG
echo "NETMASK=\$NETMASK" >>\$IFCFG
echo "GATEWAY=\$GATEWAY" >>\$IFCFG
# add hostname to /etc/hosts
cat network.conf |grep HADOOP |awk '{print \$3" "\$1}' >>/etc/hosts
# reset hostname
sed -i "s/HOSTNAME.*/HOSTNAME=\$HOST/g" /etc/sysconfig/network
Nach dem Login kopieren

?安装Hadoop

这里比较简单,直接从Installer下载软件包和安装脚本,运行安装脚本即可。

mkdir soft && cd soft
curl -o $HADOOPFILE http://$IPADDR/$SOFTDIR/$HADOOPFILE &>/dev/null && echo -e "[SUCC]: hadoop download ok! "
curl -o $JDKFILE http://$IPADDR/$SOFTDIR/$JDKFILE &>/dev/null && echo -e "[SUCC]: jdk download ok! "
cd ../
curl -o hadoop_centos.sh http://$IPADDR/$CONFDIR/hadoop_centos.sh &>/dev/null && echo -e "[SUCC]: hadoop_centos.sh download ok! "
bash hadoop_centos.sh &>/dev/null && echo -e "[SUCC]: run hadoop_centos.sh ok! "
Nach dem Login kopieren

?配置rsync服务

slave需要同步master的密钥,可以在master上配置允许匿名访问的rsync服务器[5],然后在slave上拉取master公钥。

curl -o xinetd-2.3.14-39.el6_4.x86_64.rpm http://$IPADDR/$SOFTDIR/package/xinetd-2.3.14-39.el6_4.x86_64.rpm &>/dev/null && echo -e "[SUCC]: xinetd down ok! "
curl -o rsync-3.0.6-9.el6_4.1.x86_64.rpm http://$IPADDR/$SOFTDIR/package/rsync-3.0.6-9.el6_4.1.x86_64.rpm &>/dev/null && echo -e "[SUCC]: rsync down ok! "
rpm -ivh xinetd-2.3.14-39.el6_4.x86_64.rpm &>/dev/null && echo -e "[SUCC]: xinetd install ok! "
rpm -ivh rsync-3.0.6-9.el6_4.1.x86_64.rpm &>/dev/null && echo -e "[SUCC]: rsync install ok! "
sed -i "s/disable.*/disable = no/g" /etc/xinetd.d/rsync
cat > /etc/rsyncd.conf  /etc/rsyncd.pwd 
<h4>?同步master公钥</h4>
<p>将master的公钥文件id_dsa.pub复制到rsync服务器目录,slave拉取即可。这里涉及到一个失败重传的过程,由于slave可能早于master的安装进程,当slave执行到拉取密钥的时候,master可能还没有准备好密钥。脚本设置slave如果拉取公钥失败,则等待5s后重试,共重试100次。因此请尽量保证master早于slave。另外,像集群添加新的slave时,请保持master为开机状态。</p><pre class="brush:php;toolbar:false"># slave pull d_dsa.pub from master
MASTER=`cat network.conf |grep master |awk '{print \$1}'`   # hostname of master
SLAVE=`cat network.conf |grep slave |awk '{print \$1}'`     # hostname of slave
if [ "\$HOST" = "\$MASTER" ]; then
	cp $HOMEDIR/.ssh/id_dsa.pub /tmp/id_dsa.pub
	cd /tmp
	chmod 777 id_dsa.pub
else
	i=0
	while [ \$i -lt 100 ]
	do
		#pull from master
		rsync Master::pubkey/id_dsa.pub . &>/dev/null && r=0 || r=1
		#check if rsync successfull and retry
		if [ \$r -eq 0 ]; then
			break;
		else
			sleep 5		#sleep 5 second then retry
			((i+=1))	#retry 100 times
			echo "retry  \$i ..."
		fi
	done
	cat $HOMEDIR/.ssh/authorized_keys | grep `cat id_dsa.pub`  &>/dev/null && r=0 || r=1
	[ \$r -eq 1 ] && cat id_dsa.pub >> $HOMEDIR/.ssh/authorized_keys
fi
# add id_dsa.pub of Controller
cat $HOMEDIR/.ssh/authorized_keys | grep "$KEY"  &>/dev/null && r=0 || r=1
[ \$r -eq 1 ] && echo "$KEY" >> $HOMEDIR/.ssh/authorized_keys
Nach dem Login kopieren

?Hadoop集群配置

涉及到core-site.xml,hdfs-site.xml,mapred-site.xml几个文件的配置,及masters,slaves的配置[6]。这里需要注意,像集群新加slave时,请直接在资源分配文件末尾添加。新加集群存在masters,slaves及hosts文件不同步的问题,可以考虑用cfengine或者puppet,待后续解决。

#配置集群
cd /etc/hadoop
#使用下面的core-site.xml
cat > core-site.xml 
<?xml-stylesheet type="text/xsl" href="http://www.annhe.net/configuration.xsl"?>
<!-- Put site-specific property overrides in this file. -->
<configuration>
	<property>
		<name>fs.default.name</name>
		<value>hdfs://\$MASTER:9000</value>
	</property>
</configuration>
core
#使用下面的hdfs-site.xml
cat > hdfs-site.xml 
<?xml-stylesheet type="text/xsl" href="http://www.annhe.net/configuration.xsl"?>
<!-- Put site-specific property overrides in this file. -->
<configuration>
	<property>
		<name>dfs.replication</name>
		<value>2</value>
	</property>
</configuration>	
hdfs
#使用下面的mapred-site.xml
cat > mapred-site.xml 
<?xml-stylesheet type="text/xsl" href="http://www.annhe.net/configuration.xsl"?>
<!-- Put site-specific property overrides in this file. -->
<configuration>
	<property>
		<name>mapred.job.tracker</name>
		<value>\$MASTER:9001</value>
	</property>
</configuration>
mapred
#添加master和slave主机名
cat > masters  slaves 
<h2>集群验证测试</h2>
<p>第一次启动Hadoop时,需要格式化Hadoop的HDFS,执行:</p><pre class="brush:php;toolbar:false">[root@Master ~]# hadoop namenode -format
14/05/12 01:07:43 INFO namenode.NameNode: STARTUP_MSG:
/************************************************************
STARTUP_MSG: Starting NameNode
STARTUP_MSG:   host = Master/192.168.60.20
STARTUP_MSG:   args = [-format]
STARTUP_MSG:   version = 1.2.1
STARTUP_MSG:   build = https://svn.apache.org/repos/asf/hadoop/common/branches/branch-1.2 -r 1503152; compiled by 'mattf' on Mon Jul 22 15:27:42 PDT 2013
STARTUP_MSG:   java = 1.7.0_51
************************************************************/
Re-format filesystem in /tmp/hadoop-root/dfs/name ? (Y or N) y
Format aborted in /tmp/hadoop-root/dfs/name
14/05/12 01:07:59 INFO namenode.NameNode: SHUTDOWN_MSG:
/************************************************************
SHUTDOWN_MSG: Shutting down NameNode at Master/192.168.60.20
************************************************************/
Nach dem Login kopieren

然后启动Hadoop,执行

[root@Master ~]# start-all.sh
starting namenode, logging to /var/log/hadoop/root/hadoop-root-namenode-Master.out
Slave1: starting datanode, logging to /var/log/hadoop/root/hadoop-root-datanode-Slave1.out
Slave2: starting datanode, logging to /var/log/hadoop/root/hadoop-root-datanode-Slave2.out
Master: starting secondarynamenode, logging to /var/log/hadoop/root/hadoop-root-secondarynamenode-Master.out
starting jobtracker, logging to /var/log/hadoop/root/hadoop-root-jobtracker-Master.out
Slave1: starting tasktracker, logging to /var/log/hadoop/root/hadoop-root-tasktracker-Slave1.out
Slave2: starting tasktracker, logging to /var/log/hadoop/root/hadoop-root-tasktracker-Slave2.out
Nach dem Login kopieren

宿主机中,编辑hosts文件,加入Hadoop集群主机的IP记录:

#Hadoop
192.168.60.10  ctrl
192.168.60.20  master
192.168.60.31  slave1
192.168.60.32  slave2
Nach dem Login kopieren

然后用浏览器访问 http://master:50070和http://master:50030

Jobtracker

Jobtracker

NameNode

NameNode

测试mapreduce程序,本地创建几个文本文件,上传到HDFS上:

[root@Master ~]# mkdir hadoop
[root@Master ~]# cd hadoop/
[root@Master hadoop]# mkdir input
[root@Master hadoop]# echo "hello hadoop" >>input/hadoop.txt
[root@Master hadoop]# echo "hello world" >>input/hello.txt
[root@Master hadoop]# echo "hi my name is hadoop" >>input/hi.txt
[root@Master hadoop]# hadoop fs -mkdir input
[root@Master hadoop]# hadoop fs -put input/* input
Nach dem Login kopieren

用浏览器 查看HDFS上的文件

浏览HDFS文件

浏览HDFS文件

执行Wordcount

[root@Master hadoop]# hadoop jar /usr/share/hadoop/hadoop-examples-1.2.1.jar wordcount input/ output
14/05/12 01:30:00 INFO input.FileInputFormat: Total input paths to process : 3
14/05/12 01:30:00 INFO util.NativeCodeLoader: Loaded the native-hadoop library
14/05/12 01:30:00 WARN snappy.LoadSnappy: Snappy native library not loaded
14/05/12 01:30:01 INFO mapred.JobClient: Running job: job_201405120108_0002
14/05/12 01:30:02 INFO mapred.JobClient:  map 0% reduce 0%
14/05/12 01:30:20 INFO mapred.JobClient:  map 33% reduce 0%
14/05/12 01:30:28 INFO mapred.JobClient:  map 100% reduce 0%
14/05/12 01:30:35 INFO mapred.JobClient:  map 100% reduce 100%
14/05/12 01:30:37 INFO mapred.JobClient: Job complete: job_201405120108_0002
14/05/12 01:30:37 INFO mapred.JobClient: Counters: 29
14/05/12 01:30:37 INFO mapred.JobClient:   Job Counters
14/05/12 01:30:37 INFO mapred.JobClient:     Launched reduce tasks=1
14/05/12 01:30:37 INFO mapred.JobClient:     SLOTS_MILLIS_MAPS=49355
14/05/12 01:30:37 INFO mapred.JobClient:     Total time spent by all reduces waiting after reserving slots (ms)=0
14/05/12 01:30:37 INFO mapred.JobClient:     Total time spent by all maps waiting after reserving slots (ms)=0
14/05/12 01:30:37 INFO mapred.JobClient:     Launched map tasks=3
14/05/12 01:30:37 INFO mapred.JobClient:     Data-local map tasks=3
14/05/12 01:30:37 INFO mapred.JobClient:     SLOTS_MILLIS_REDUCES=14236
14/05/12 01:30:37 INFO mapred.JobClient:   File Output Format Counters
14/05/12 01:30:37 INFO mapred.JobClient:     Bytes Written=47
14/05/12 01:30:37 INFO mapred.JobClient:   FileSystemCounters
14/05/12 01:30:37 INFO mapred.JobClient:     FILE_BYTES_READ=106
14/05/12 01:30:37 INFO mapred.JobClient:     HDFS_BYTES_READ=371
14/05/12 01:30:37 INFO mapred.JobClient:     FILE_BYTES_WRITTEN=218711
14/05/12 01:30:37 INFO mapred.JobClient:     HDFS_BYTES_WRITTEN=47
14/05/12 01:30:37 INFO mapred.JobClient:   File Input Format Counters
14/05/12 01:30:37 INFO mapred.JobClient:     Bytes Read=46
14/05/12 01:30:37 INFO mapred.JobClient:   Map-Reduce Framework
14/05/12 01:30:37 INFO mapred.JobClient:     Map output materialized bytes=118
14/05/12 01:30:37 INFO mapred.JobClient:     Map input records=3
14/05/12 01:30:37 INFO mapred.JobClient:     Reduce shuffle bytes=118
14/05/12 01:30:37 INFO mapred.JobClient:     Spilled Records=18
14/05/12 01:30:37 INFO mapred.JobClient:     Map output bytes=82
14/05/12 01:30:37 INFO mapred.JobClient:     Total committed heap usage (bytes)=617562112
14/05/12 01:30:37 INFO mapred.JobClient:     CPU time spent (ms)=6190
14/05/12 01:30:37 INFO mapred.JobClient:     Combine input records=9
14/05/12 01:30:37 INFO mapred.JobClient:     SPLIT_RAW_BYTES=325
14/05/12 01:30:37 INFO mapred.JobClient:     Reduce input records=9
14/05/12 01:30:37 INFO mapred.JobClient:     Reduce input groups=7
14/05/12 01:30:37 INFO mapred.JobClient:     Combine output records=9
14/05/12 01:30:37 INFO mapred.JobClient:     Physical memory (bytes) snapshot=553525248
14/05/12 01:30:37 INFO mapred.JobClient:     Reduce output records=7
14/05/12 01:30:37 INFO mapred.JobClient:     Virtual memory (bytes) snapshot=2894249984
14/05/12 01:30:37 INFO mapred.JobClient:     Map output records=9
Nach dem Login kopieren

用浏览器查看

runningjobs

运行中的任务

completjobs

完成的任务

查看结果

[root@Master hadoop]# hadoop fs -cat output/*
hadoop  2
hello   2
hi      1
is      1
my      1
name    1
world   1
cat: File does not exist: /user/root/output/_logs
Nach dem Login kopieren

用浏览器查看结果

result

Wordcount执行结果

遇到的问题

?去除M-oM-;M-?

用notepad++,编码为 utf8无BOM即可

rsync 提示 no route to master

密钥总是拉取失败,rsync无法连接master。通过添加调试代码发现在post脚本中设置完网络信息之后需要重启网络。因为虽然hosts中存在集群中各主机的IP信息,但是没有重启网络之前各主机的IP仍然是从PXE服务器那里自动获取的。这里涉及到时序的问题,因为slave要访问master,master需要先配置完网络并重启网络后才能被slave访问到。所以slave需要等待master配置完成。脚本设置最多等待100x5s,即500s。

^[[36m[SUCC]: Stop iptables ^[[0m
^[[36m[SUCC]: Chkconfig iptables off ^[[0m
/tmp
^[[36m[SUCC]: resourcefile download ok! ^[[0m
^[[36m[SUCC]: hadoop download ok! ^[[0m
^[[36m[SUCC]: jdk download ok! ^[[0m
^[[36m[SUCC]: hadoop_centos.sh download ok! ^[[0m
^[[36m[SUCC]: xinetd down ok! ^[[0m
^[[36m[SUCC]: rsync down ok! ^[[0m
^[[36m[SUCC]: xinetd install ok! ^[[0m
^[[36m[SUCC]: rsync install ok! ^[[0m
Stopping xinetd: ^[[60G[^[[0;31mFAILED^[[0;39m]^M
Starting xinetd: ^[[60G[^[[0;32m  OK  ^[[0;39m]^M
rsync: failed to connect to Master: No route to host (113)
rsync error: error in socket IO (code 10) at clientserver.c(124) [receiver=3.0.6]
Nach dem Login kopieren

另外防火墙也可能导致rsync失败,可以在ks文件中直接关闭防火墙。[7]

firewall(可选)
                这个选项对应安装程序里的「防火墙配置」屏幕:
                firewall --enabled|--disabled [--trust=] <device> [--port=]
                --enabled或者--enable,拒绝不是答复输出请求如DNS答复或DHCP请求的进入连接.如果需要使用在这个机器上运行的服务,可以选择允许指定的服务穿过防火墙.
                --disabled或--disable,不要配置任何iptables规则.
                --trust=,在此列出设备,如eth0,这允许所有经由这个设备的数据包通过防火墙.如果需要列出多个设备,使用--trust eth0 --trust eth1.不要使用以逗号分隔的格式,如--trust eth0, eth1.
                <incoming>,使用以下服务中的一个或多个来替换,从而允许指定的服务穿过防火墙.
                        --ssh
                        --telnet
                        --smtp
                        --http
                        --ftp
                --port=,可以用端口:协议(port:protocal)格式指定允许通过防火墙的端口.
                        例如,如果想允许IMAP通过的防火墙,可以指定imap:tcp.还可以具体指定端口号码,要允许UDP分组在端口1234通过防火墙,输入1234:udp.要指定多个端口,用逗号将它们隔开.</incoming></device>
Nach dem Login kopieren

?ssh登录时提示"是否要添加HostKey"

ssh登录某台机器的时候,如果这台机器从来没有使用ssh登录过(严格来说应该是~/.ssh/known_hosts文件中没有这台机器的HostKey),那么,ssh会产生一个提示,询问是否需要添加这台机器的HostKey,回答yes/no即可,虽然只要不删除~/.ssh/known_hosts文件中该机器的HostKey,则这个提示将不会出现,但是如果我们需要书写一些自动化脚本的时候,这就会成为问题。
man了一下ssh_config,发现有解决的办法:创建文件~/.ssh/config,添加一行:
StrictHostKeyChecking no
即可。以后ssh将会自动添加HostKey到~/.ssh/known_hosts,不会再询问。默认该项配置是ask,所以会询问。如果配置成yes,则每次必须手动将hostkey添加到~/.ssh/known_hosts文件中,这是最严格的配置。[8]

参考资料

[1]. ChinaUnix博客. http://blog.chinaunix.net/uid-17240700-id-2813881.html
[2]. ChinaUnix博客. http://blog.chinaunix.net/uid-17240700-id-2813881.html
[3]. ChinaUnix博客. http://blog.chinaunix.net/uid-17240700-id-2813881.html
[4]. 知行近思. http://www.annhe.net/article-2672.html
[5]. CSDN博客. http://blog.csdn.net/zombee/article/details/6793672
[6]. 陆嘉桓. Hadoop实战 第二版
[7]. ChinaUnix博客. http://blog.chinaunix.net/uid-17240700-id-2813881.html
[8]. 163博客. http://blog.163.com/kartwall@126/blog/static/8942370200831485241268/

附录

完整代码

详见github:https://github.com/annProg/paper/blob/master/code/init_pxeserver.sh

扩展阅读

[1].?MORE-Kickstart-Tips-and-Tricks.?Tricks.
http://www.redhat.com/promo/summit/2010/presentations/summit/decoding-the-code/wed/cshabazi-530-more/MORE-Kickstart-Tips-and-Tricks.pdf


本文遵从CC版权协定,转载请以链接形式注明出处。
本文链接地址: http://www.annhe.net/article-2798.html
Verwandte Etiketten:
Quelle:php.cn
Erklärung dieser Website
Der Inhalt dieses Artikels wird freiwillig von Internetnutzern beigesteuert und das Urheberrecht liegt beim ursprünglichen Autor. Diese Website übernimmt keine entsprechende rechtliche Verantwortung. Wenn Sie Inhalte finden, bei denen der Verdacht eines Plagiats oder einer Rechtsverletzung besteht, wenden Sie sich bitte an admin@php.cn
Beliebte Tutorials
Mehr>
Neueste Downloads
Mehr>
Web-Effekte
Quellcode der Website
Website-Materialien
Frontend-Vorlage