首頁 資料庫 mysql教程 Hadoop 2.2 & HBase 0.96 Maven 依赖总结

Hadoop 2.2 & HBase 0.96 Maven 依赖总结

Jun 07, 2016 pm 03:12 PM
amp hadoop hbase

由于Hbase 0.94对Hadoop 2.x的支持不是非常好,故直接添加Hbase 0.94的jar依赖可能会导致问题。 但是直接添加Hbase0.96的依赖,由于官方并没有发布Hbase 0.96的jar包,通过maven编译项目的时候会出现找不到jar包导致编译失败。 通过网上的资料,得知Hbase 0.9

由于Hbase 0.94对Hadoop 2.x的支持不是非常好,故直接添加Hbase 0.94的jar依赖可能会导致问题。

     但是直接添加Hbase0.96的依赖,由于官方并没有发布Hbase 0.96的jar包,通过maven编译项目的时候会出现找不到jar包导致编译失败。

     通过网上的资料,得知Hbase 0.94后版本,直接添加Hbase-Client的依赖,通过查询得知需要以下依赖:

[html] view plaincopyHadoop 2.2 & HBase 0.96 Maven 依赖总结Hadoop 2.2 & HBase 0.96 Maven 依赖总结

  1.  dependency>  
  2.     groupId>commons-iogroupId>  
  3.     artifactId>commons-ioartifactId>  
  4.     version>1.3.2version>  
  5.  dependency>  
  6.  dependency>  
  7.     groupId>commons-logginggroupId>  
  8.     artifactId>commons-loggingartifactId>  
  9.     version>1.1.3version>  
  10. dependency>  
  11. dependency>  
  12.     groupId>log4jgroupId>  
  13.     artifactId>log4jartifactId>  
  14.     version>1.2.17version>  
  15. dependency>  
  16. dependency>  
  17.     groupId>org.apache.hbasegroupId>  
  18.     artifactId>hbase-clientartifactId>  
  19.     version>0.96.1-hadoop2version>  
  20. dependency>  
  21. dependency>  
  22.     groupId>com.google.protobufgroupId>  
  23.     artifactId>protobuf-javaartifactId>  
  24.     version>2.5.0version>  
  25. dependency>  
  26. dependency>  
  27.     groupId>io.nettygroupId>  
  28.     artifactId>nettyartifactId>  
  29.     version>3.6.6.Finalversion>  
  30. dependency>  
  31. dependency>  
  32.     groupId>org.apache.hbasegroupId>  
  33.     artifactId>hbase-commonartifactId>  
  34.     version>0.96.1-hadoop2version>  
  35. dependency>  
  36. dependency>  
  37.     groupId>org.apache.hbasegroupId>  
  38.     artifactId>hbase-protocolartifactId>  
  39.     version>0.96.1-hadoop2version>  
  40. dependency>  
  41. dependency>  
  42.     groupId>org.apache.zookeepergroupId>  
  43.     artifactId>zookeeperartifactId>  
  44.     version>3.4.5version>  
  45. dependency>  
  46. dependency>  
  47.     groupId>org.cloudera.htracegroupId>  
  48.     artifactId>htrace-coreartifactId>  
  49.     version>2.01version>  
  50. dependency>  
  51. dependency>  
  52.     groupId>org.codehaus.jacksongroupId>  
  53.     artifactId>jackson-mapper-aslartifactId>  
  54.     version>1.9.13version>  
  55. dependency>  
  56. dependency>  
  57.     groupId>org.codehaus.jacksongroupId>  
  58.     artifactId>jackson-core-aslartifactId>  
  59.     version>1.9.13version>  
  60. dependency>  
  61. dependency>  
  62.     groupId>org.codehaus.jacksongroupId>  
  63.     artifactId>jackson-jaxrsartifactId>  
  64.     version>1.9.13version>  
  65. dependency>  
  66. dependency>  
  67.     groupId>org.codehaus.jacksongroupId>  
  68.     artifactId>jackson-xcartifactId>  
  69.     version>1.9.13version>  
  70. dependency>  
  71. dependency>  
  72.     groupId>org.slf4jgroupId>  
  73.     artifactId>slf4j-apiartifactId>  
  74.     version>1.6.4version>  
  75. dependency>  
  76. dependency>  
  77.     groupId>org.slf4jgroupId>  
  78.     artifactId>slf4j-log4j12artifactId>  
  79.     version>1.6.4version>  
  80. dependency>  

    若要使用org.apache.hadoop.hbase.mapreduce的API,需要加上:

               

                        org.apache.hbase

                       hbase-server

                       0.96.1-hadoop2

              


     最后,把Hadoop的依赖也贴上来,以防自己忘记:

          
       
            org.apache.hadoop
            hadoop-client
            2.3.0
       

       
            commons-configuration
            commons-configuration
            1.6
       

       
            org.apache.hadoop
            hadoop-auth
            2.3.0
       

       
            org.apache.hadoop
            hadoop-common
            2.3.0
       
本網站聲明
本文內容由網友自願投稿,版權歸原作者所有。本站不承擔相應的法律責任。如發現涉嫌抄襲或侵權的內容,請聯絡admin@php.cn

熱AI工具

Undresser.AI Undress

Undresser.AI Undress

人工智慧驅動的應用程序,用於創建逼真的裸體照片

AI Clothes Remover

AI Clothes Remover

用於從照片中去除衣服的線上人工智慧工具。

Undress AI Tool

Undress AI Tool

免費脫衣圖片

Clothoff.io

Clothoff.io

AI脫衣器

AI Hentai Generator

AI Hentai Generator

免費產生 AI 無盡。

熱門文章

R.E.P.O.能量晶體解釋及其做什麼(黃色晶體)
1 個月前 By 尊渡假赌尊渡假赌尊渡假赌
R.E.P.O.最佳圖形設置
1 個月前 By 尊渡假赌尊渡假赌尊渡假赌
威爾R.E.P.O.有交叉遊戲嗎?
1 個月前 By 尊渡假赌尊渡假赌尊渡假赌

熱工具

記事本++7.3.1

記事本++7.3.1

好用且免費的程式碼編輯器

SublimeText3漢化版

SublimeText3漢化版

中文版,非常好用

禪工作室 13.0.1

禪工作室 13.0.1

強大的PHP整合開發環境

Dreamweaver CS6

Dreamweaver CS6

視覺化網頁開發工具

SublimeText3 Mac版

SublimeText3 Mac版

神級程式碼編輯軟體(SublimeText3)

Java錯誤:Hadoop錯誤,如何處理與避免 Java錯誤:Hadoop錯誤,如何處理與避免 Jun 24, 2023 pm 01:06 PM

Java錯誤:Hadoop錯誤,如何處理和避免使用Hadoop處理大數據時,常常會遇到一些Java異常錯誤,這些錯誤可能會影響任務的執行,導致資料處理失敗。本文將介紹一些常見的Hadoop錯誤,並提供處理和避免這些錯誤的方法。 Java.lang.OutOfMemoryErrorOutOfMemoryError是Java虛擬機器記憶體不足的錯誤。當Hadoop任

在Beego中使用Hadoop和HBase進行大數據儲存和查詢 在Beego中使用Hadoop和HBase進行大數據儲存和查詢 Jun 22, 2023 am 10:21 AM

隨著大數據時代的到來,資料處理和儲存變得越來越重要,如何有效率地管理和分析大量的資料也成為企業面臨的挑戰。 Hadoop和HBase作為Apache基金會的兩個項目,為大數據儲存和分析提供了一個解決方案。本文將介紹如何在Beego中使用Hadoop和HBase進行大數據儲存和查詢。一、Hadoop和HBase簡介Hadoop是一個開源的分散式儲存和運算系統,它可

如何使用PHP和Hadoop進行大數據處理 如何使用PHP和Hadoop進行大數據處理 Jun 19, 2023 pm 02:24 PM

隨著資料量的不斷增大,傳統的資料處理方式已經無法處理大數據時代所帶來的挑戰。 Hadoop是開源的分散式運算框架,它透過分散式儲存和處理大量的數據,解決了單節點伺服器在大數據處理中帶來的效能瓶頸問題。 PHP是一種腳本語言,廣泛應用於Web開發,而且具有快速開發、易於維護等優點。本文將介紹如何使用PHP和Hadoop進行大數據處理。什麼是HadoopHadoop是

AMP是什麼幣? AMP是什麼幣? Feb 24, 2024 pm 09:16 PM

什麼是AMP幣? AMP代幣是由Synereo團隊於2015年創立,作為Synereo平台的主要交易貨幣。 AMP代幣旨在透過多種功能和用途,為用戶提供更好的數位經濟體驗。 AMP代幣的用途AMP代幣在Synereo平台中擁有多重角色與功能。首先,作為平台的加密貨幣獎勵系統的一部分,用戶能夠透過分享和推廣內容來獲得AMP獎勵,這項機制鼓勵用戶更積極參與平台的活動。 AMP代幣也可用於在Synereo平台上推廣和傳播內容。用戶可以透過使用AMP代幣來提升他們的內容在平台上的曝光率,以吸引更多觀眾來查看和分

探索Java在大數據領域的應用:Hadoop、Spark、Kafka等技術堆疊的了解 探索Java在大數據領域的應用:Hadoop、Spark、Kafka等技術堆疊的了解 Dec 26, 2023 pm 02:57 PM

Java大數據技術堆疊:了解Java在大數據領域的應用,如Hadoop、Spark、Kafka等隨著資料量不斷增加,大數據技術成為了當今網路時代的熱門話題。在大數據領域,我們常聽到Hadoop、Spark、Kafka等技術的名字。這些技術起到了至關重要的作用,而Java作為一門廣泛應用的程式語言,也在大數據領域發揮著巨大的作用。本文將重點放在Java在大

linux下安裝Hadoop的方法是什麼 linux下安裝Hadoop的方法是什麼 May 18, 2023 pm 08:19 PM

一:安裝JDK1.執行以下指令,下載JDK1.8安裝套件。 wget--no-check-certificatehttps://repo.huaweicloud.com/java/jdk/8u151-b12/jdk-8u151-linux-x64.tar.gz2.執行以下命令,解壓縮下載的JDK1.8安裝包。 tar-zxvfjdk-8u151-linux-x64.tar.gz3.移動並重新命名JDK包。 mvjdk1.8.0_151//usr/java84.配置Java環境變數。 echo'

利用PHP實現大規模資料處理:Hadoop、Spark、Flink等 利用PHP實現大規模資料處理:Hadoop、Spark、Flink等 May 11, 2023 pm 04:13 PM

隨著資料量的不斷增加,大規模資料處理已經成為了企業必須面對和解決的問題。傳統的關聯式資料庫已經無法滿足這種需求,而對於大規模資料的儲存與分析,Hadoop、Spark、Flink等分散式運算平台成為了最佳選擇。在資料處理工具的選擇過程中,PHP作為一種易於開發和維護的語言,越來越受到開發者的歡迎。在本文中,我們將探討如何利用PHP來實現大規模資料處理,以及如

PHP中的資料處理引擎(Spark, Hadoop等) PHP中的資料處理引擎(Spark, Hadoop等) Jun 23, 2023 am 09:43 AM

在目前的網路時代,海量資料的處理是各個企業和機構都需要面對的問題。作為一種廣泛應用的程式語言,PHP同樣需要在資料處理方面跟上時代的腳步。為了更有效率地處理大量數據,PHP開發引入了一些大數據處理工具,如Spark和Hadoop等。 Spark是一款開源的資料處理引擎,可用於大型資料集的分散式處理。 Spark的最大特點是具有快速的資料處理速度和高效的資料存

See all articles