Hadoop 2.2 & HBase 0.96 Maven 依赖总结
由于Hbase 0.94对Hadoop 2.x的支持不是非常好,故直接添加Hbase 0.94的jar依赖可能会导致问题。 但是直接添加Hbase0.96的依赖,由于官方并没有发布Hbase 0.96的jar包,通过maven编译项目的时候会出现找不到jar包导致编译失败。 通过网上的资料,得知Hbase 0.9
由于Hbase 0.94对Hadoop 2.x的支持不是非常好,故直接添加Hbase 0.94的jar依赖可能会导致问题。 但是直接添加Hbase0.96的依赖,由于官方并没有发布Hbase 0.96的jar包,通过maven编译项目的时候会出现找不到jar包导致编译失败。
通过网上的资料,得知Hbase 0.94后版本,直接添加Hbase-Client的依赖,通过查询得知需要以下依赖:
[html]
view plaincopy
- dependency>
- groupId>commons-iogroupId>
- artifactId>commons-ioartifactId>
- version>1.3.2version>
- dependency>
- dependency>
- groupId>commons-logginggroupId>
- artifactId>commons-loggingartifactId>
- version>1.1.3version>
- dependency>
- dependency>
- groupId>log4jgroupId>
- artifactId>log4jartifactId>
- version>1.2.17version>
- dependency>
- dependency>
- groupId>org.apache.hbasegroupId>
- artifactId>hbase-clientartifactId>
- version>0.96.1-hadoop2version>
- dependency>
- dependency>
- groupId>com.google.protobufgroupId>
- artifactId>protobuf-javaartifactId>
- version>2.5.0version>
- dependency>
- dependency>
- groupId>io.nettygroupId>
- artifactId>nettyartifactId>
- version>3.6.6.Finalversion>
- dependency>
- dependency>
- groupId>org.apache.hbasegroupId>
- artifactId>hbase-commonartifactId>
- version>0.96.1-hadoop2version>
- dependency>
- dependency>
- groupId>org.apache.hbasegroupId>
- artifactId>hbase-protocolartifactId>
- version>0.96.1-hadoop2version>
- dependency>
- dependency>
- groupId>org.apache.zookeepergroupId>
- artifactId>zookeeperartifactId>
- version>3.4.5version>
- dependency>
- dependency>
- groupId>org.cloudera.htracegroupId>
- artifactId>htrace-coreartifactId>
- version>2.01version>
- dependency>
- dependency>
- groupId>org.codehaus.jacksongroupId>
- artifactId>jackson-mapper-aslartifactId>
- version>1.9.13version>
- dependency>
- dependency>
- groupId>org.codehaus.jacksongroupId>
- artifactId>jackson-core-aslartifactId>
- version>1.9.13version>
- dependency>
- dependency>
- groupId>org.codehaus.jacksongroupId>
- artifactId>jackson-jaxrsartifactId>
- version>1.9.13version>
- dependency>
- dependency>
- groupId>org.codehaus.jacksongroupId>
- artifactId>jackson-xcartifactId>
- version>1.9.13version>
- dependency>
- dependency>
- groupId>org.slf4jgroupId>
- artifactId>slf4j-apiartifactId>
- version>1.6.4version>
- dependency>
- dependency>
- groupId>org.slf4jgroupId>
- artifactId>slf4j-log4j12artifactId>
- version>1.6.4version>
- dependency>
若要使用org.apache.hadoop.hbase.mapreduce的API,需要加上:
最后,把Hadoop的依赖也贴上来,以防自己忘记:

熱AI工具

Undresser.AI Undress
人工智慧驅動的應用程序,用於創建逼真的裸體照片

AI Clothes Remover
用於從照片中去除衣服的線上人工智慧工具。

Undress AI Tool
免費脫衣圖片

Clothoff.io
AI脫衣器

AI Hentai Generator
免費產生 AI 無盡。

熱門文章

熱工具

記事本++7.3.1
好用且免費的程式碼編輯器

SublimeText3漢化版
中文版,非常好用

禪工作室 13.0.1
強大的PHP整合開發環境

Dreamweaver CS6
視覺化網頁開發工具

SublimeText3 Mac版
神級程式碼編輯軟體(SublimeText3)

熱門話題

Java錯誤:Hadoop錯誤,如何處理和避免使用Hadoop處理大數據時,常常會遇到一些Java異常錯誤,這些錯誤可能會影響任務的執行,導致資料處理失敗。本文將介紹一些常見的Hadoop錯誤,並提供處理和避免這些錯誤的方法。 Java.lang.OutOfMemoryErrorOutOfMemoryError是Java虛擬機器記憶體不足的錯誤。當Hadoop任

隨著大數據時代的到來,資料處理和儲存變得越來越重要,如何有效率地管理和分析大量的資料也成為企業面臨的挑戰。 Hadoop和HBase作為Apache基金會的兩個項目,為大數據儲存和分析提供了一個解決方案。本文將介紹如何在Beego中使用Hadoop和HBase進行大數據儲存和查詢。一、Hadoop和HBase簡介Hadoop是一個開源的分散式儲存和運算系統,它可

隨著資料量的不斷增大,傳統的資料處理方式已經無法處理大數據時代所帶來的挑戰。 Hadoop是開源的分散式運算框架,它透過分散式儲存和處理大量的數據,解決了單節點伺服器在大數據處理中帶來的效能瓶頸問題。 PHP是一種腳本語言,廣泛應用於Web開發,而且具有快速開發、易於維護等優點。本文將介紹如何使用PHP和Hadoop進行大數據處理。什麼是HadoopHadoop是

什麼是AMP幣? AMP代幣是由Synereo團隊於2015年創立,作為Synereo平台的主要交易貨幣。 AMP代幣旨在透過多種功能和用途,為用戶提供更好的數位經濟體驗。 AMP代幣的用途AMP代幣在Synereo平台中擁有多重角色與功能。首先,作為平台的加密貨幣獎勵系統的一部分,用戶能夠透過分享和推廣內容來獲得AMP獎勵,這項機制鼓勵用戶更積極參與平台的活動。 AMP代幣也可用於在Synereo平台上推廣和傳播內容。用戶可以透過使用AMP代幣來提升他們的內容在平台上的曝光率,以吸引更多觀眾來查看和分

Java大數據技術堆疊:了解Java在大數據領域的應用,如Hadoop、Spark、Kafka等隨著資料量不斷增加,大數據技術成為了當今網路時代的熱門話題。在大數據領域,我們常聽到Hadoop、Spark、Kafka等技術的名字。這些技術起到了至關重要的作用,而Java作為一門廣泛應用的程式語言,也在大數據領域發揮著巨大的作用。本文將重點放在Java在大

一:安裝JDK1.執行以下指令,下載JDK1.8安裝套件。 wget--no-check-certificatehttps://repo.huaweicloud.com/java/jdk/8u151-b12/jdk-8u151-linux-x64.tar.gz2.執行以下命令,解壓縮下載的JDK1.8安裝包。 tar-zxvfjdk-8u151-linux-x64.tar.gz3.移動並重新命名JDK包。 mvjdk1.8.0_151//usr/java84.配置Java環境變數。 echo'

隨著資料量的不斷增加,大規模資料處理已經成為了企業必須面對和解決的問題。傳統的關聯式資料庫已經無法滿足這種需求,而對於大規模資料的儲存與分析,Hadoop、Spark、Flink等分散式運算平台成為了最佳選擇。在資料處理工具的選擇過程中,PHP作為一種易於開發和維護的語言,越來越受到開發者的歡迎。在本文中,我們將探討如何利用PHP來實現大規模資料處理,以及如

在目前的網路時代,海量資料的處理是各個企業和機構都需要面對的問題。作為一種廣泛應用的程式語言,PHP同樣需要在資料處理方面跟上時代的腳步。為了更有效率地處理大量數據,PHP開發引入了一些大數據處理工具,如Spark和Hadoop等。 Spark是一款開源的資料處理引擎,可用於大型資料集的分散式處理。 Spark的最大特點是具有快速的資料處理速度和高效的資料存
