Hadoop 2.2 & HBase 0.96 Maven 依赖总结
由于Hbase 0.94对Hadoop 2.x的支持不是非常好,故直接添加Hbase 0.94的jar依赖可能会导致问题。 但是直接添加Hbase0.96的依赖,由于官方并没有发布Hbase 0.96的jar包,通过maven编译项目的时候会出现找不到jar包导致编译失败。 通过网上的资料,得知Hbase 0.9
由于Hbase 0.94对Hadoop 2.x的支持不是非常好,故直接添加Hbase 0.94的jar依赖可能会导致问题。 但是直接添加Hbase0.96的依赖,由于官方并没有发布Hbase 0.96的jar包,通过maven编译项目的时候会出现找不到jar包导致编译失败。
通过网上的资料,得知Hbase 0.94后版本,直接添加Hbase-Client的依赖,通过查询得知需要以下依赖:
[html]
view plaincopy
- dependency>
- groupId>commons-iogroupId>
- artifactId>commons-ioartifactId>
- version>1.3.2version>
- dependency>
- dependency>
- groupId>commons-logginggroupId>
- artifactId>commons-loggingartifactId>
- version>1.1.3version>
- dependency>
- dependency>
- groupId>log4jgroupId>
- artifactId>log4jartifactId>
- version>1.2.17version>
- dependency>
- dependency>
- groupId>org.apache.hbasegroupId>
- artifactId>hbase-clientartifactId>
- version>0.96.1-hadoop2version>
- dependency>
- dependency>
- groupId>com.google.protobufgroupId>
- artifactId>protobuf-javaartifactId>
- version>2.5.0version>
- dependency>
- dependency>
- groupId>io.nettygroupId>
- artifactId>nettyartifactId>
- version>3.6.6.Finalversion>
- dependency>
- dependency>
- groupId>org.apache.hbasegroupId>
- artifactId>hbase-commonartifactId>
- version>0.96.1-hadoop2version>
- dependency>
- dependency>
- groupId>org.apache.hbasegroupId>
- artifactId>hbase-protocolartifactId>
- version>0.96.1-hadoop2version>
- dependency>
- dependency>
- groupId>org.apache.zookeepergroupId>
- artifactId>zookeeperartifactId>
- version>3.4.5version>
- dependency>
- dependency>
- groupId>org.cloudera.htracegroupId>
- artifactId>htrace-coreartifactId>
- version>2.01version>
- dependency>
- dependency>
- groupId>org.codehaus.jacksongroupId>
- artifactId>jackson-mapper-aslartifactId>
- version>1.9.13version>
- dependency>
- dependency>
- groupId>org.codehaus.jacksongroupId>
- artifactId>jackson-core-aslartifactId>
- version>1.9.13version>
- dependency>
- dependency>
- groupId>org.codehaus.jacksongroupId>
- artifactId>jackson-jaxrsartifactId>
- version>1.9.13version>
- dependency>
- dependency>
- groupId>org.codehaus.jacksongroupId>
- artifactId>jackson-xcartifactId>
- version>1.9.13version>
- dependency>
- dependency>
- groupId>org.slf4jgroupId>
- artifactId>slf4j-apiartifactId>
- version>1.6.4version>
- dependency>
- dependency>
- groupId>org.slf4jgroupId>
- artifactId>slf4j-log4j12artifactId>
- version>1.6.4version>
- dependency>
若要使用org.apache.hadoop.hbase.mapreduce的API,需要加上:
最后,把Hadoop的依赖也贴上来,以防自己忘记:

热AI工具

Undresser.AI Undress
人工智能驱动的应用程序,用于创建逼真的裸体照片

AI Clothes Remover
用于从照片中去除衣服的在线人工智能工具。

Undress AI Tool
免费脱衣服图片

Clothoff.io
AI脱衣机

AI Hentai Generator
免费生成ai无尽的。

热门文章

热工具

记事本++7.3.1
好用且免费的代码编辑器

SublimeText3汉化版
中文版,非常好用

禅工作室 13.0.1
功能强大的PHP集成开发环境

Dreamweaver CS6
视觉化网页开发工具

SublimeText3 Mac版
神级代码编辑软件(SublimeText3)

热门话题

Java错误:Hadoop错误,如何处理和避免当使用Hadoop处理大数据时,常常会遇到一些Java异常错误,这些错误可能会影响任务的执行,导致数据处理失败。本文将介绍一些常见的Hadoop错误,并提供处理和避免这些错误的方法。Java.lang.OutOfMemoryErrorOutOfMemoryError是Java虚拟机内存不足的错误。当Hadoop任

随着大数据时代的到来,数据处理和存储变得越来越重要,如何高效地管理和分析大量的数据也成为企业面临的挑战。Hadoop和HBase作为Apache基金会的两个项目,为大数据存储和分析提供了一种解决方案。本文将介绍如何在Beego中使用Hadoop和HBase进行大数据存储和查询。一、Hadoop和HBase简介Hadoop是一个开源的分布式存储和计算系统,它可

随着数据量的不断增大,传统的数据处理方式已经无法处理大数据时代带来的挑战。Hadoop是开源的分布式计算框架,它通过分布式存储和处理大量的数据,解决了单节点服务器在大数据处理中带来的性能瓶颈问题。PHP是一种脚本语言,广泛应用于Web开发,而且具有快速开发、易于维护等优点。本文将介绍如何使用PHP和Hadoop进行大数据处理。什么是HadoopHadoop是

什么是AMP币?AMP代币是由Synereo团队于2015年创立,作为Synereo平台的主要交易货币。AMP代币旨在通过多种功能和用途,为用户提供更好的数字经济体验。AMP代币的用途AMP代币在Synereo平台中拥有多重角色和功能。首先,作为平台的加密货币奖励系统的一部分,用户能够通过分享和推广内容来获得AMP奖励,这一机制鼓励用户更积极地参与平台的活动。AMP代币还可用于在Synereo平台上推广和传播内容。用户可以通过使用AMP代币提升他们的内容在平台上的曝光率,以吸引更多观众来查看和分

Java大数据技术栈:了解Java在大数据领域的应用,如Hadoop、Spark、Kafka等随着数据量不断增加,大数据技术成为了当今互联网时代的热门话题。在大数据领域,我们常常听到Hadoop、Spark、Kafka等技术的名字。这些技术起到了至关重要的作用,而Java作为一门广泛应用的编程语言,也在大数据领域发挥着巨大的作用。本文将重点介绍Java在大

一:安装JDK1.执行以下命令,下载JDK1.8安装包。wget--no-check-certificatehttps://repo.huaweicloud.com/java/jdk/8u151-b12/jdk-8u151-linux-x64.tar.gz2.执行以下命令,解压下载的JDK1.8安装包。tar-zxvfjdk-8u151-linux-x64.tar.gz3.移动并重命名JDK包。mvjdk1.8.0_151//usr/java84.配置Java环境变量。echo'

随着数据量的不断增加,大规模数据处理已经成为了企业必须面对和解决的问题。传统的关系型数据库已经无法满足这种需求,而对于大规模数据的存储和分析,Hadoop、Spark、Flink等分布式计算平台成为了最佳选择。在数据处理工具的选择过程中,PHP作为一种易于开发和维护的语言,越来越受到开发者的欢迎。在本文中,我们将探讨如何利用PHP来实现大规模数据处理,以及如

在当前的互联网时代,海量数据的处理是各个企业和机构都需要面对的问题。作为一种广泛应用的编程语言,PHP同样需要在数据处理方面跟上时代的步伐。为了更加高效地处理海量数据,PHP开发引入了一些大数据处理工具,如Spark和Hadoop等。Spark是一款开源的数据处理引擎,可以用于大型数据集的分布式处理。Spark的最大特点是具有快速的数据处理速度和高效的数据存
