ホームページ データベース mysql チュートリアル Hadoop 2.2 & HBase 0.96 Maven 依赖总结

Hadoop 2.2 & HBase 0.96 Maven 依赖总结

Jun 07, 2016 pm 03:12 PM
amp hadoop hbase

由于Hbase 0.94对Hadoop 2.x的支持不是非常好,故直接添加Hbase 0.94的jar依赖可能会导致问题。 但是直接添加Hbase0.96的依赖,由于官方并没有发布Hbase 0.96的jar包,通过maven编译项目的时候会出现找不到jar包导致编译失败。 通过网上的资料,得知Hbase 0.9

由于Hbase 0.94对Hadoop 2.x的支持不是非常好,故直接添加Hbase 0.94的jar依赖可能会导致问题。

     但是直接添加Hbase0.96的依赖,由于官方并没有发布Hbase 0.96的jar包,通过maven编译项目的时候会出现找不到jar包导致编译失败。

     通过网上的资料,得知Hbase 0.94后版本,直接添加Hbase-Client的依赖,通过查询得知需要以下依赖:

[html] view plaincopyHadoop 2.2 & HBase 0.96 Maven 依赖总结Hadoop 2.2 & HBase 0.96 Maven 依赖总结

  1.  dependency>  
  2.     groupId>commons-iogroupId>  
  3.     artifactId>commons-ioartifactId>  
  4.     version>1.3.2version>  
  5.  dependency>  
  6.  dependency>  
  7.     groupId>commons-logginggroupId>  
  8.     artifactId>commons-loggingartifactId>  
  9.     version>1.1.3version>  
  10. dependency>  
  11. dependency>  
  12.     groupId>log4jgroupId>  
  13.     artifactId>log4jartifactId>  
  14.     version>1.2.17version>  
  15. dependency>  
  16. dependency>  
  17.     groupId>org.apache.hbasegroupId>  
  18.     artifactId>hbase-clientartifactId>  
  19.     version>0.96.1-hadoop2version>  
  20. dependency>  
  21. dependency>  
  22.     groupId>com.google.protobufgroupId>  
  23.     artifactId>protobuf-javaartifactId>  
  24.     version>2.5.0version>  
  25. dependency>  
  26. dependency>  
  27.     groupId>io.nettygroupId>  
  28.     artifactId>nettyartifactId>  
  29.     version>3.6.6.Finalversion>  
  30. dependency>  
  31. dependency>  
  32.     groupId>org.apache.hbasegroupId>  
  33.     artifactId>hbase-commonartifactId>  
  34.     version>0.96.1-hadoop2version>  
  35. dependency>  
  36. dependency>  
  37.     groupId>org.apache.hbasegroupId>  
  38.     artifactId>hbase-protocolartifactId>  
  39.     version>0.96.1-hadoop2version>  
  40. dependency>  
  41. dependency>  
  42.     groupId>org.apache.zookeepergroupId>  
  43.     artifactId>zookeeperartifactId>  
  44.     version>3.4.5version>  
  45. dependency>  
  46. dependency>  
  47.     groupId>org.cloudera.htracegroupId>  
  48.     artifactId>htrace-coreartifactId>  
  49.     version>2.01version>  
  50. dependency>  
  51. dependency>  
  52.     groupId>org.codehaus.jacksongroupId>  
  53.     artifactId>jackson-mapper-aslartifactId>  
  54.     version>1.9.13version>  
  55. dependency>  
  56. dependency>  
  57.     groupId>org.codehaus.jacksongroupId>  
  58.     artifactId>jackson-core-aslartifactId>  
  59.     version>1.9.13version>  
  60. dependency>  
  61. dependency>  
  62.     groupId>org.codehaus.jacksongroupId>  
  63.     artifactId>jackson-jaxrsartifactId>  
  64.     version>1.9.13version>  
  65. dependency>  
  66. dependency>  
  67.     groupId>org.codehaus.jacksongroupId>  
  68.     artifactId>jackson-xcartifactId>  
  69.     version>1.9.13version>  
  70. dependency>  
  71. dependency>  
  72.     groupId>org.slf4jgroupId>  
  73.     artifactId>slf4j-apiartifactId>  
  74.     version>1.6.4version>  
  75. dependency>  
  76. dependency>  
  77.     groupId>org.slf4jgroupId>  
  78.     artifactId>slf4j-log4j12artifactId>  
  79.     version>1.6.4version>  
  80. dependency>  

    若要使用org.apache.hadoop.hbase.mapreduce的API,需要加上:

               

                        org.apache.hbase

                       hbase-server

                       0.96.1-hadoop2

              


     最后,把Hadoop的依赖也贴上来,以防自己忘记:

          
       
            org.apache.hadoop
            hadoop-client
            2.3.0
       

       
            commons-configuration
            commons-configuration
            1.6
       

       
            org.apache.hadoop
            hadoop-auth
            2.3.0
       

       
            org.apache.hadoop
            hadoop-common
            2.3.0
       
このウェブサイトの声明
この記事の内容はネチズンが自主的に寄稿したものであり、著作権は原著者に帰属します。このサイトは、それに相当する法的責任を負いません。盗作または侵害の疑いのあるコンテンツを見つけた場合は、admin@php.cn までご連絡ください。

ホットAIツール

Undresser.AI Undress

Undresser.AI Undress

リアルなヌード写真を作成する AI 搭載アプリ

AI Clothes Remover

AI Clothes Remover

写真から衣服を削除するオンライン AI ツール。

Undress AI Tool

Undress AI Tool

脱衣画像を無料で

Clothoff.io

Clothoff.io

AI衣類リムーバー

Video Face Swap

Video Face Swap

完全無料の AI 顔交換ツールを使用して、あらゆるビデオの顔を簡単に交換できます。

ホットツール

メモ帳++7.3.1

メモ帳++7.3.1

使いやすく無料のコードエディター

SublimeText3 中国語版

SublimeText3 中国語版

中国語版、とても使いやすい

ゼンドスタジオ 13.0.1

ゼンドスタジオ 13.0.1

強力な PHP 統合開発環境

ドリームウィーバー CS6

ドリームウィーバー CS6

ビジュアル Web 開発ツール

SublimeText3 Mac版

SublimeText3 Mac版

神レベルのコード編集ソフト(SublimeText3)

Java エラー: Hadoop エラー、処理方法と回避方法 Java エラー: Hadoop エラー、処理方法と回避方法 Jun 24, 2023 pm 01:06 PM

Java エラー: Hadoop エラー、対処方法と回避方法 Hadoop を使用してビッグ データを処理する場合、タスクの実行に影響を与え、データ処理の失敗を引き起こす可能性のある Java 例外エラーが頻繁に発生します。この記事では、一般的な Hadoop エラーをいくつか紹介し、それらに対処および回避する方法を示します。 Java.lang.OutOfMemoryErrorOutOfMemoryError は、Java 仮想マシンのメモリ不足によって発生するエラーです。 Hadoop の場合

Beego で Hadoop と HBase を使用してビッグ データ ストレージとクエリを実行する Beego で Hadoop と HBase を使用してビッグ データ ストレージとクエリを実行する Jun 22, 2023 am 10:21 AM

ビッグデータ時代の到来に伴い、データの処理と保存の重要性がますます高まっており、大量のデータをいかに効率的に管理、分析するかが企業にとっての課題となっています。 Apache Foundation の 2 つのプロジェクトである Hadoop と HBase は、ビッグ データのストレージと分析のためのソリューションを提供します。この記事では、ビッグデータのストレージとクエリのために Beego で Hadoop と HBase を使用する方法を紹介します。 1. Hadoop と HBase の概要 Hadoop は、オープンソースの分散ストレージおよびコンピューティング システムです。

ビッグデータ処理に PHP と Hadoop を使用する方法 ビッグデータ処理に PHP と Hadoop を使用する方法 Jun 19, 2023 pm 02:24 PM

データ量が増加し続けるにつれて、従来のデータ処理方法ではビッグデータ時代がもたらす課題に対処できなくなります。 Hadoop は、ビッグ データ処理において単一ノード サーバーによって引き起こされるパフォーマンスのボトルネック問題を、分散ストレージと大量のデータの処理を通じて解決する、オープン ソースの分散コンピューティング フレームワークです。 PHP は、Web 開発で広く使用されているスクリプト言語であり、迅速な開発と容易なメンテナンスという利点があります。この記事では、ビッグデータ処理に PHP と Hadoop を使用する方法を紹介します。 HadoopとはHadoopとは

AMPとは何のコインですか? AMPとは何のコインですか? Feb 24, 2024 pm 09:16 PM

AMPコインとは何ですか? AMP トークンは、Synereo プラットフォームの主要取引通貨として 2015 年に Synereo チームによって作成されました。 AMP トークンは、複数の機能と用途を通じてユーザーに優れたデジタル経済体験を提供することを目的としています。 AMP トークンの目的 AMP トークンには、Synereo プラットフォームで複数の役割と機能があります。まず、プラットフォームの暗号通貨報酬システムの一部として、ユーザーはコンテンツを共有および宣伝することで AMP 報酬を獲得できます。これは、ユーザーがプラットフォームのアクティビティにより積極的に参加することを促すメカニズムです。 AMP トークンは、Synereo プラットフォームでコンテンツを宣伝および配布するために使用することもできます。ユーザーは、AMP トークンを使用して、より多くの視聴者に視聴して共有してもらうことで、プラットフォーム上でのコンテンツの可視性を高めることができます。

ビッグデータの分野での Java の応用を探る: Hadoop、Spark、Kafka、その他のテクノロジー スタックについて理解する ビッグデータの分野での Java の応用を探る: Hadoop、Spark、Kafka、その他のテクノロジー スタックについて理解する Dec 26, 2023 pm 02:57 PM

Java ビッグ データ テクノロジ スタック: Hadoop、Spark、Kafka などのビッグ データ分野における Java のアプリケーションを理解します。データ量が増加し続けるにつれて、今日のインターネット時代ではビッグ データ テクノロジが注目のトピックになっています。ビッグデータの分野では、Hadoop、Spark、Kafka などのテクノロジーの名前をよく耳にします。これらのテクノロジーは重要な役割を果たしており、広く使用されているプログラミング言語である Java もビッグデータの分野で大きな役割を果たしています。この記事では、Java のアプリケーション全般に​​焦点を当てます。

Linux に Hadoop をインストールする方法 Linux に Hadoop をインストールする方法 May 18, 2023 pm 08:19 PM

1: JDK1のインストール 以下のコマンドを実行して、JDK1.8のインストールパッケージをダウンロードします。 wget--no-check-certificatehttps://repo.huaweicloud.com/java/jdk/8u151-b12/jdk-8u151-linux-x64.tar.gz2. 次のコマンドを実行して、ダウンロードした JDK1.8 インストール パッケージを解凍します。 。 tar-zxvfjdk-8u151-linux-x64.tar.gz3. JDK パッケージを移動して名前を変更します。 mvjdk1.8.0_151//usr/java84. Java 環境変数を設定します。エコー'

PHP を使用して大規模なデータ処理を実現します: Hadoop、Spark、Flink など。 PHP を使用して大規模なデータ処理を実現します: Hadoop、Spark、Flink など。 May 11, 2023 pm 04:13 PM

データ量が増加し続けるにつれ、大規模なデータ処理が企業が直面し、解決しなければならない問題となっています。従来のリレーショナル データベースではもはやこの需要を満たすことができず、大規模データの保存と分析には、Hadoop、Spark、Flink などの分散コンピューティング プラットフォームが最適な選択肢となっています。データ処理ツールの選択プロセスでは、開発と保守が簡単な言語として、PHP が開発者の間でますます人気が高まっています。この記事では、大規模なデータ処理に PHP を活用する方法とその方法について説明します。

PHP のデータ処理エンジン (Spark、Hadoop など) PHP のデータ処理エンジン (Spark、Hadoop など) Jun 23, 2023 am 09:43 AM

現在のインターネット時代において、大量のデータの処理は、あらゆる企業や機関が直面する必要がある問題です。 PHP は広く使用されているプログラミング言語であるため、データ処理の面でも時代に対応する必要があります。大量のデータをより効率的に処理するために、PHP 開発には Spark や Hadoop などのビッグ データ処理ツールが導入されています。 Spark は、大規模なデータ セットの分散処理に使用できるオープン ソース データ処理エンジンです。 Spark の最大の特徴は、高速なデータ処理速度と効率的なデータ ストレージです。

See all articles