首页 数据库 mysql教程 谁说他们版本不兼容hadoop1.2.1+hbase0.94.11+nutch2.2.1+el

谁说他们版本不兼容hadoop1.2.1+hbase0.94.11+nutch2.2.1+el

Jun 07, 2016 pm 04:32 PM
不兼容 版本 背景 论文 需要 项目

一、背景 最近由于项目和论文的需要,需要搭建一个垂直搜索的环境,查阅了很多资料,决定使用Apache的一套解决方案hadoop+hbase+nutch+es。这几样神器的作用就不多作介绍了,自行参考各类百科就行了。我选择这样的方案主要是基于以下考虑: 1、可扩展,虽然

一、背景

最近由于项目和论文的需要,需要搭建一个垂直搜索的环境,查阅了很多资料,决定使用Apache的一套解决方案hadoop+hbase+nutch+es。这几样神器的作用就不多作介绍了,自行参考各类百科就行了。我选择这样的方案主要是基于以下考虑:

1、可扩展,虽然只是实验环境,但是以后在项目中是要应用到生产中的,随着数据量的增大,需要的硬件设备能够方便的加入进来,所以选择了分布式的方案中最具人气的hadoop+hbase组合

2、数据来源兼容,nutch2以后集成了gora和tika,可以方便的进行数据ORM和分析

3、与时俱进,es很火嘛,而且各种评测说es比solr更快更稳定,虽然没有自己测试过,但是跟随github大牛们的脚步总不会错得太离谱

二、前言

这一部分纯粹吐槽,国内的好多技术博客不是停留在nutch1X阶段,就是各种不负责任的抄袭转载,某几位先驱说这几样东西版本必须一对一兼容,然后所有人都这样去做,没有一点探索精神和质疑精神。今天,我就做第一个吃螃蟹的人,谁说gora0.3只能配hbase0.92,谁说nutch2只能配es0.19,既然开源的大牛们放出了稳定最新版,就一定有能兼容的道理!

三、安装与配置过程(伪分布式)

整个实验环境采用伪分布式模式搭建,也就是只有一台master的分布式环境,以后扩展只需要继续配置slaver就可以了。 系统为ubuntu server 12.04

hadoop1.2.1

hadoop安装的前提是java和ssh免密码登陆配置,这个不多说了,基本的,jdk1.6和1.7都可以。

1、官网的stable目录里面下载hadoop1.2.1的deb包

2、安装hadoop的deb包

sudo dpkg -i /home/hadoop/hadoop_1.2.1-1_x86_64.deb
登录后复制

3、查看安装的位置

whereis hadoop
登录后复制

输出:

hadoop: /usr/bin/hadoop /etc/hadoop /usr/etc/hadoop /usr/bin/X11/hadoop /usr/include/hadoop /usr/share/hadoop
登录后复制

这里面/etc/hadoop目录是hadoop的各种配置文件,/usr/share/hadoop则是hadoop的主要jar包和监控页面的东西

4、下面开始修改配置文件:

hdfs-site.xml

<?xml version="1.0"?>
<?xml-stylesheet type="text/xsl" href="http://xieminis.me/configuration.xsl"?>
<configuration>
<!-- file system properties -->
<property>
<name>dfs.name.dir</name>
<value>/home/hadoop/name</value><!-- value里填写运行hadoop的账户能够访问的目录 -->
</property>
<property>
<name>dfs.data.dir</name>
<value>/home/hadoop/data</value><!-- value里填写运行hadoop的账户能够访问的目录 -->
</property>
<property>
<name>dfs.replication</name>
<value>1</value>
<description>Default block replication.
The actual number of replications can be specified when the file is created.
The default is used if replication is not specified in create time.
</description>
</property>
</configuration>
登录后复制

mapred-site.xml?

<?xml version="1.0"?>
<?xml-stylesheet type="text/xsl" href="http://xieminis.me/configuration.xsl"?>
<!-- Put site-specific property overrides in this file. -->
<configuration>
<property>
<name>mapred.job.tracker</name>
<value>localhost:54311</value>
<!-- 如果是完全分布式模式,localhost要替换为master的内网ip地址,端口随意,注意避开端口冲突 -->
<description>The host and port that the MapReduce job tracker runs
at. If "local", then jobs are run in-process as a single map
and reduce task.
</description>
</property>
</configuration>
登录后复制

core-site.xml

<?xml version="1.0"?>
<?xml-stylesheet type="text/xsl" href="http://xieminis.me/configuration.xsl"?>
<!-- core-site.xml -->
<configuration>
<property>
<name>hadoop.tmp.dir</name>
<value>/home/hadoop/tmp</value>
<description>A base for other temporary directories.</description>
</property>
<property>
<name>fs.default.name</name>
<value>hdfs://localhost:54310</value>
<description>The name of the default file system. A URI whose
scheme and authority determine the FileSystem implementation. The
uri's scheme determines the config property (fs.SCHEME.impl) naming
the FileSystem implementation class. The uri's authority is used to
determine the host, port, etc. for a filesystem.</description>
</property>
</configuration>
登录后复制

hadoop-env.sh

修改java路径

export JAVA_HOME=/usr/lib/jvm/java-7-oracle
登录后复制

修改pid路径为hadoop运行账户能访问到的路径,默认是/var/run/hadoop,如果不是sudo组的化是没权限的,而且每次重启都会清空这个目录,用chown无法起到长期作用。

export HADOOP_PID_DIR=/home/hadoop/run/hadoop
export HADOOP_SECURE_DN_PID_DIR=/home/hadoop/run/hadoop
登录后复制

masters和slaves

如果是伪分布式,直接localhost,如果是完全分布式,masters填写master的ip地址,slaves填写slave的ip地址,回车隔开

至此基本的配置已经完毕,如果想了解更多配置内容可以参考这篇文章hadoop三个配置文件的参数含义说明

5、启动hadoop

先格式化namenode

hadoop?namenode?-format
登录后复制

然后启动

start-all.sh
登录后复制

=============================================

hbase0.94.11

1、官网stable目录下下载hbase0.94.11的tar包并解压

tar -zxvf hbase-0.94.11.tar.gz
登录后复制

2、去conf目录修改hbase-site.xml

<configuration>
<property>
<name>hbase.rootdir</name>
<value>hdfs://localhost:54310/hbase</value><!-- 端口号和ip地址要与hadoop配置参数fs.default.name一致 -->
</property>
<property>
<name>hbase.cluster.distributed</name>
<value>true</value>
</property>
<property>
<name>hbase.zookeeper.quorum</name>
<value>localhost</value>
</property>
</configuration>
登录后复制

3、修改hbase-env.sh文件

添加如下三行:

export JAVA_HOME=/usr/lib/jvm/java-7-oracle/
export HBASE_CLASSPATH=/etc/hadoop
export HBASE_MANAGES_ZK=true
登录后复制

至此配置文件修改结束(如果完全分布式还要修改regionservers),更多配置参数和调优可以参考这篇文章《HBase入门篇3-hbase 配置文件参数设置及优化

4、替换hadoop的jar文件

hbase0.94.11默认支持的是hadoop1.0.4,我们可以用替换hadoop-core的方式让其支持hadoop1.2.1

rm?/home/hadoop/hbase-0.94.11/lib/hadoop-core-1.0.4.jar
cp?/usr/share/hadoop/hadoop-core-1.2.1.jar?/home/hadoop/hbase-0.94.11/lib
cp /usr/share/hadoop/lib/commons-collections-3.2.1.jar?/home/hadoop/hbase-0.94.11/lib
cp /usr/share/hadoop/lib/commons-configuration-1.6.jar?/home/hadoop/hbase-0.94.11/lib
登录后复制

5、启动hbase

/home/hadoop/hbase-0.94.11/bin/start-hbase.sh
登录后复制

6、用jps命令看是否运行正常

输出为:

2032 NameNode
13764 HQuorumPeer
29069 Jps
2630 JobTracker
2280 DataNode
13889 HMaster
2535 SecondaryNameNode
2904 TaskTracker
14180 HRegionServer
登录后复制

注意这几个东西一个都不能少,如果有什么少了,一定要去日志里看看是怎么回事。

7、尝试运行hbase命令

/home/hadoop/hbase-0.94.11/bin/hbase?shell
HBase?Shell;?enter?'help<return>'?for?list?of?supported?commands.
Type?"exit<return>"?to?leave?the?HBase?Shell
Version?0.90.4,?r1150278,?Sun?Jul?24?15:53:29?PDT?2011
hbase(main):001:0>?list
TABLE??????????????????????????????????????????webpage?????????????????????????????????????????
1?row(s)?in?0.5270?seconds</return></return>
登录后复制

如果不报错,说明已经配置成功

?==================================================================

ElasticSearch0.90.5

这里不像一般的博客那样先安装nutch,而是先安装es,为什么,因为逻辑上来讲,nutch是一个爬虫加集成器,es被nutch集成,所以先安装es,这在思想上叫做由零到整。

1、官网下载es0.90.5的deb安装包并安装

sudo dpkg -i /home/hadoop/elasticsearch/elasticsearch-0.90.5.deb
登录后复制

2、查看安装了哪些东西

whereis?elasticsearch
登录后复制

输出:

elasticsearch: /etc/elasticsearch /usr/share/elasticsearch
登录后复制

其中/etc/elasticsearch目录里面的elasticsearch.yml文件是比较重要的配置文件,这里我们使用默认配置,不做修改,需要特殊配置的同学可以参考这篇文章《分布式搜索elasticsearch配置文件详解》。

而/usr/share/elasticsearch里面则是es主要的执行文件和jar包了

3、检查es运行状态

es安装好后就默认开启了,貌似关闭只能杀死进程,启动的话直接输入命令elasticsearch即可。

使用curl来检查es的cluster的运行状态,并获得clustername

curl -XGET 'localhost:9200/_cluster/health?pretty'
登录后复制

如果获得以下输出,表示成功了

{
"cluster_name" : "elasticsearch",
"status" : "green",
"timed_out" : false,
"number_of_nodes" : 2,
"number_of_data_nodes" : 2,
"active_primary_shards" : 5,
"active_shards" : 10,
"relocating_shards" : 0,
"initializing_shards" : 0,
"unassigned_shards" : 0
}
登录后复制

======================================================================

nutch2.2.1

1、官网下载tar包并解压

2、修改源码

这里要吐槽下nutch的开源大牛们,这么明显的bug你就发出版本来了,而且几个版本都不改,如果你有你的道理,你应该文档说明一下好吧,为毛我都找不到你们的正式说明?

进入src/java/org/apache/nutch/crawl目录,修改GeneratorJob.java中的public Map run(Map args) 方法。

添加以下三行

//?generate?batchId
?int?randomSeed?=?Math.abs(new?Random().nextInt()); ?
?String?batchId?=?(curTime?/?1000)?+?"-"?+?randomSeed; ?
?getConf().set(BATCH_ID,?batchId); ?
登录后复制

?

如果不这样做,nutch generate的时候会报NullPointerException,真心不知道他们是出于什么目的

?

3、拷贝hbase的配置文件到nutch?

?

cp /home/hadoop/hbase-0.94.11/conf/hbase-site.xml /home/hadoop/nutch2.2.1/conf/?
登录后复制

4、拷贝 hbase0.92 ? 的jar包到nutch的lib目录

这一步是关键,nutch自带的gora0.3是只能支持到最高hbase0.92,默认是hbase0.90,如果不做这一步,nutch就会用默认的0.90jar包去操作0.94的hbase,导致一个“java.lang.IllegalArgumentException: Not a host:port pair”的奇葩错误(据说是低版本client操作高版本server的常见错误)。但是你也不能直接用0.94的jar包去替换,因为这又会导致另一个奇葩错误“java.lang.NoSuchMethodError:org.apache.hadoop.hbase.HColumnDescriptor.setMaxVersions(I)V”,据说这个错误已经被记入HBASE官方JIRA,BUG编号:HBASE-8273。大概意思是说这个setMaxVersions函数的返回值改了。。尼玛,这帮人有没有点面向对象合作编程的常识啊,你丫就不能重新写个函数啊。。。

那么吐槽归吐槽,怎么解决呢,既然大家都说0.92的支持好,那我就用0.92的jar包做替换试试,离0.94就差一个版本,应该不算太低的版本,说不定能操作0.94的库呢,这一试还真成了。

具体办法就是官网上下个hbase0.92.2的版本,把里面的hbase-0.92.2.jar文件拷贝到/home/hadoop/nutch2.2.1/lib目录下即可

?

5、修改nutch-site.xml

?

<property>
<name>storage.data.store.class</name>
<value>org.apache.gora.hbase.store.HBaseStore</value>
<description>Default?class?for?storing?data</description>
</property>
<property>
<name>http.agent.name</name>
<value>Mozilla/5.0 (Macintosh; Intel Mac OS X 10_8_4) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/28.0.1500.95 Safari/537.36</value><!-- 这个随意填,我填了我chrome浏览器的UA -->
</property>
登录后复制

?

关于该文件各个参数的详细解释可以参考这个excel文件——《nutch配置

?

6、修改ivy/ivy.xml

?

?首先是一个常规的修改,找到

<dependency conf="*->default"></dependency>
登录后复制

这一行,把注释去掉

?

然后是见证奇迹的修改,让nutch2.2.1支持es0.90.5的修改。找到

<dependency org="org.elasticsearch" name="elasticsearch" rev="0.19.4" conf="*->default"></dependency>
登录后复制

这一行,把rev的值0.19.4替换为?0.90.5

?

这就是ivy进行包依赖管理的强大之处,一会儿执行ant的时候就是见证奇迹的时刻。

如果不做这一步,在进行nutch elasticindex(建立索引)的时候,会报MasterNotDiscoveredException

?

7、修改conf/gora.properties文件

添加一行:

?

gora.datastore.default=org.apache.gora.hbase.store.HBaseStore
登录后复制

8、执行ant编译

首次执行ant的时候会比较慢,因为ivy要下载依赖包,大家仔细观察屏幕上的输出,可以看到编译到elasticsearch依赖的时候,成功下来了0.90.5的jar包,同时下载的还有lucene4.4.0

执行完成后,会看到nutch目录下多了runtime目录,里面deploy用于分布式抓取,local用于本地抓取

?

至此,所有的安装配置都已完成,enjoy it!

?

?

四、简单体验一下抓取和检索的过程

?

1、建立一个目录urls

2、在urls目录里写一个种子文件,命名为url,里面随便写个页面丰富的网址例如http://blog.tianya.cn

3、将该目录放到hadoop的hdfs上

? ? ?

hadoop fs -copyFromLocal urls /home/hadoop/urls
登录后复制

4、执行nutch inject,向hbase注入抓取种子页

? ??

bin/nutch inject /home/hadoop/urls
登录后复制

执行完成后,可以在hbase里面看到“webpage”这个表

?

5、执行nutch 抓取流程

分别执行以下命令

?

bin/nutch generate -topN 10
bin/nutch?fetch?-all
bin/nutch?parse?-all
bin/nutch?updatedb
登录后复制

执行完成后,可以去hbase里面scan一下webpage表,应该已经有了百行以上的结果

?

6、为elasticsearch建立索引

?

bin/nutch elasticindex <cluster name> -all?</cluster>
登录后复制

如果没有修改过es的配置文件,这里cluster name默认应该是“elasticsearch”

?

7、利用curl进行查询

?

curl -XGET 'http://localhost:9200/_search?content=tianya'
登录后复制

要想进行中文查询,可以自行添加中文分词插件,参考《分布式搜索elasticsearch中文分词集成

?

?

五、总结

?

这篇博客虽然吐槽较多,但我还是挺尊重一些认真写博客,认真在论坛回答问题的大牛的,能够配置安装成功,也受到了一些大牛博客和大牛回答的启发,在这里要感谢这些无私的人。

?

下面就要在实际的实验和项目中检验我这套配置的合理性和健壮性了,以后博客中,也会多多记录在使用中遇到的问题和解决方法。

?

声明:如未作说明,则本文为 渣滓洞【解旻的博客】 原创。转载务必注明出处。
注意:转载须保留全文,如需修改请联系作者。

本文永久地址:http://xieminis.me/?p=268

本站声明
本文内容由网友自发贡献,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系admin@php.cn

热AI工具

Undresser.AI Undress

Undresser.AI Undress

人工智能驱动的应用程序,用于创建逼真的裸体照片

AI Clothes Remover

AI Clothes Remover

用于从照片中去除衣服的在线人工智能工具。

Undress AI Tool

Undress AI Tool

免费脱衣服图片

Clothoff.io

Clothoff.io

AI脱衣机

AI Hentai Generator

AI Hentai Generator

免费生成ai无尽的。

热门文章

R.E.P.O.能量晶体解释及其做什么(黄色晶体)
1 个月前 By 尊渡假赌尊渡假赌尊渡假赌
R.E.P.O.最佳图形设置
1 个月前 By 尊渡假赌尊渡假赌尊渡假赌
威尔R.E.P.O.有交叉游戏吗?
1 个月前 By 尊渡假赌尊渡假赌尊渡假赌

热工具

记事本++7.3.1

记事本++7.3.1

好用且免费的代码编辑器

SublimeText3汉化版

SublimeText3汉化版

中文版,非常好用

禅工作室 13.0.1

禅工作室 13.0.1

功能强大的PHP集成开发环境

Dreamweaver CS6

Dreamweaver CS6

视觉化网页开发工具

SublimeText3 Mac版

SublimeText3 Mac版

神级代码编辑软件(SublimeText3)

Linux下更新curl版本教程! Linux下更新curl版本教程! Mar 07, 2024 am 08:30 AM

在Linux下更新curl版本,您可以按照以下步骤进行操作:检查当前curl版本:首先,您需要确定当前系统中安装的curl版本。打开终端,并执行以下命令:curl--version该命令将显示当前curl的版本信息。确认可用的curl版本:在更新curl之前,您需要确定可用的最新版本。您可以访问curl的官方网站(curl.haxx.se)或相关的软件源,查找最新版本的curl。下载curl源代码:使用curl或浏览器,下载您选择的curl版本的源代码文件(通常为.tar.gz或.tar.bz2

AI攻克费马大定理?数学家放弃5年职业生涯,将100页证明变代码 AI攻克费马大定理?数学家放弃5年职业生涯,将100页证明变代码 Apr 09, 2024 pm 03:20 PM

费马大定理,即将被AI攻克?而且整件事最意味深长的地方在于,AI即将解决的费马大定理,正是为了证明AI无用。曾经,数学属于纯粹的人类智力王国;如今,这片疆土正被先进的算法所破译,所践踏。图片费马大定理,是一个「臭名昭著」的谜题,在几个世纪以来,一直困扰着数学家们。它在1993年被证明,而现在,数学家们有一个伟大计划:用计算机把证明过程重现。他们希望在这个版本的证明中,如果有任何逻辑上的错误,都可由计算机检查出来。项目地址:https://github.com/riccardobrasca/flt

如何轻松查看Oracle的安装版本 如何轻松查看Oracle的安装版本 Mar 07, 2024 am 11:27 AM

如何轻松查看Oracle的安装版本,需要具体代码示例作为一款被广泛应用于企业级数据库管理系统的软件,Oracle数据库具有许多版本和不同的安装方式。在日常工作中,我们经常需要查看Oracle数据库的安装版本,以便进行相应的操作和维护。本文将介绍如何轻松地查看Oracle的安装版本,并给出具体的代码示例。方法一:通过SQL查询在Oracle数据库中,我们可以通

深入了解PyCharm:快速删除项目的方法 深入了解PyCharm:快速删除项目的方法 Feb 26, 2024 pm 04:21 PM

标题:深入了解PyCharm:删除项目的高效方式近年来,Python作为一种强大而灵活的编程语言,受到越来越多开发者的青睐。在Python项目的开发中,选择一个高效的集成开发环境至关重要。PyCharm作为一款功能强大的集成开发环境,为Python开发者提供了诸多便利的功能和工具,其中包括快速、高效地删除项目目录。下面将着重介绍如何使用PyCharm中的删除

查看麒麟操作系统版本和内核版本 查看麒麟操作系统版本和内核版本 Feb 21, 2024 pm 07:04 PM

查看麒麟操作系统版本和内核版本在麒麟操作系统中,了解如何查看系统版本和内核版本是进行系统管理和维护的基础。查看麒麟操作系统版本方法一:使用/etc/.kyinfo文件要查看麒麟操作系统的版本,您可以查看/etc/.kyinfo文件。此文件包含了操作系统的版本信息。执行以下命令:cat/etc/.kyinfo此命令将显示操作系统的详细版本信息。方法二:使用/etc/issue文件另一个查看操作系统版本的方法是通过查看/etc/issue文件。这个文件同样提供了版本信息,但可能不如.kyinfo文件

Stable Diffusion 3论文终于发布,架构细节大揭秘,对复现Sora有帮助? Stable Diffusion 3论文终于发布,架构细节大揭秘,对复现Sora有帮助? Mar 06, 2024 pm 05:34 PM

StableDiffusion3的论文终于来了!这个模型于两周前发布,采用了与Sora相同的DiT(DiffusionTransformer)架构,一经发布就引起了不小的轰动。与之前版本相比,StableDiffusion3生成的图质量有了显着提升,现在支持多主题提示,并且文字书写效果也得到了改善,不再出现乱码情况。 StabilityAI指出,StableDiffusion3是一个系列模型,其参数量从800M到8B不等。这一参数范围意味着该模型可以在许多便携设备上直接运行,从而显着降低了使用AI

大模型一对一战斗75万轮,GPT-4夺冠,Llama 3位列第五 大模型一对一战斗75万轮,GPT-4夺冠,Llama 3位列第五 Apr 23, 2024 pm 03:28 PM

关于Llama3,又有测试结果新鲜出炉——大模型评测社区LMSYS发布了一份大模型排行榜单,Llama3位列第五,英文单项与GPT-4并列第一。图片不同于其他Benchmark,这份榜单的依据是模型一对一battle,由全网测评者自行命题并打分。最终,Llama3取得了榜单中的第五名,排在前面的是GPT-4的三个不同版本,以及Claude3超大杯Opus。而在英文单项榜单中,Llama3反超了Claude,与GPT-4打成了平手。对于这一结果,Meta的首席科学家LeCun十分高兴,转发了推文并

PyCharm实用技巧:将项目转换为可执行EXE文件 PyCharm实用技巧:将项目转换为可执行EXE文件 Feb 23, 2024 am 09:33 AM

PyCharm是一款功能强大的Python集成开发环境,提供了丰富的开发工具和环境配置,让开发者能够更高效地编写和调试代码。在使用PyCharm进行Python项目开发的过程中,有时候我们需要将项目打包成可执行的EXE文件,以便在没有安装Python环境的计算机上运行。本文将介绍如何使用PyCharm将项目转换为可执行的EXE文件,同时给出具体的代码示例。首

See all articles