Wie man Debian Hadoop testet

Apr 12, 2025 pm 10:03 PM
apache red

Wie man Debian Hadoop testet

Dieser Artikel führt Sie dazu, Apache Hadoop in Ihrem Debian -System zu installieren und zu testen. In den folgenden Schritten werden die Konfigurationsprozess- und Überprüfungsmethoden detailliert beschrieben.

Schritt 1: Java installieren

Stellen Sie sicher, dass das System Java 8 oder höher installiert ist. Installieren Sie OpenJDK 8 mit dem folgenden Befehl:

 sudo APT -Update
sudo apt installieren openjdk-8-jdk
Nach dem Login kopieren

Überprüfen Sie die Installation:

 Java -Version
Nach dem Login kopieren

Schritt 2: Download und dekomprimieren Sie Hadoop

Laden Sie die neueste Version von Hadoop von der offiziellen Website von Apache Hadoop herunter und entpacken Sie sie in das angegebene Verzeichnis (z /usr/local/hadoop ):

 wGet https://downloads.apache.org/hadoop/common/hadoop-3.3.1/hadoop-3.3.1.tar.gz
tar -xzvf hadoop -3.3.1.tar.gz -c/usr/local/hadoop
`` `(Bitte ersetzen Sie` Hadoop-3.3.1` durch die tatsächliche Versionsnummer)


** Schritt 3: Umgebungsvariablen konfigurieren **

Bearbeiten Sie die Datei "~/.bashrc" und fügen Sie die folgenden Umgebungsvariablen hinzu:

`` `bash
Export hadoop_home =/usr/local/hadoop
Exportpfad = $ Path: $ Hadoop_Home/bin: $ hadoop_home/sbin
Nach dem Login kopieren

Die Änderungen wirksam werden:

 Quelle ~/.bashrc
Nach dem Login kopieren

Schritt 4: Konfigurieren Sie die Hadoop -Konfigurationsdatei

Ändern Sie die Konfigurationsdatei im Hadoop -Verzeichnis:

  • Core-Site.xml :
<configuration>
  <property>
    <name>Fs.DefaultFs</name>
    <value>HDFS: // NAMENODE: 9000</value>
  </property>
</configuration>
Nach dem Login kopieren
  • HDFS-site.xml :
<configuration>
  <property>
    <name>DFS.Replikation</name>
    <value>3</value>
  </property>
  <property>
    <name>dfs.namenode.name.dir</name>
    <value>/usr/local/hadoop/dfs/name</value>
  </property>
  <property>
    <name>dfs.datanode.data.dir</name>
    <value>/usr/local/hadoop/dfs/Daten</value>
  </property>
</configuration>
Nach dem Login kopieren
  • Mapred-Site.xml :
<configuration>
  <property>
    <name>MAPREDUCE.FRAMEWORK.NAME</name>
    <value>Garn</value>
  </property>
</configuration>
Nach dem Login kopieren
  • Garn-Site.xml :
<configuration>
  <property>
    <name>marn.nodemanager.aux-services</name>
    <value>MAPREDUCE_SHUFFE</value>
  </property>
  <property>
    <name>marn.nodemanager.aux-services.mapreduce.shuffle.class</name>
    <value>org.apache.hadoop.mapred.shuffleHandler</value>
  </property>
</configuration>
Nach dem Login kopieren

Schritt 5: Format HDFs Format

Führen Sie auf dem Namenode -Knoten den folgenden Befehl aus, um HDFs zu formatieren:

 HDFS NAMENODE -Format
Nach dem Login kopieren

Schritt 6: Hadoop -Service starten

Starten Sie Namenode und Datanode im NAMENODE -Knoten:

 Start-dfs.sh
Nach dem Login kopieren

Starten Sie Garn auf dem Ressourcenemanager -Knoten:

 Start marn.sh
Nach dem Login kopieren

Schritt 7: Lokale Modus -Tests

Wechseln Sie zu Hadoop -Benutzer:

 Su - Hadoop
Nach dem Login kopieren

Erstellen Sie Eingangsverzeichnisse und -dateien:

 mkdir ~/input
vi ~/input/data.txt
Nach dem Login kopieren

Geben Sie Testdaten ein (z. B. "Hallo Welt", "Hello Hadoop"), speichern und beenden.

WordCount Beispiel ausführen:

 Hadoop jar /usr/local/hadoop/share/hadoop/mapreduce/hadoop-mapreduce-examples-*
`` `(Bitte passen Sie es gemäß dem tatsächlichen JAR -Paket -Dateinamen an)

Sehen Sie sich die Ergebnisse an:

`` `bash
ls ~/output
Cat ~/output/part-r-00000
Nach dem Login kopieren

Die korrekte Ausgabe zeigt an, dass der Hadoop -Lokalmodus erfolgreich ausgeführt wird. Bitte beachten Sie, dass die obigen Schritte davon ausgehen, dass Sie in einer eigenständigen Umgebung testen. Für Cluster -Umgebungen sind entsprechende Konfigurationsänderungen erforderlich. Weitere detailliertere und neueste Konfigurationsinformationen finden Sie in der offiziellen Hadoop -Dokumentation.

Das obige ist der detaillierte Inhalt vonWie man Debian Hadoop testet. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Erklärung dieser Website
Der Inhalt dieses Artikels wird freiwillig von Internetnutzern beigesteuert und das Urheberrecht liegt beim ursprünglichen Autor. Diese Website übernimmt keine entsprechende rechtliche Verantwortung. Wenn Sie Inhalte finden, bei denen der Verdacht eines Plagiats oder einer Rechtsverletzung besteht, wenden Sie sich bitte an admin@php.cn

Heiße KI -Werkzeuge

Undresser.AI Undress

Undresser.AI Undress

KI-gestützte App zum Erstellen realistischer Aktfotos

AI Clothes Remover

AI Clothes Remover

Online-KI-Tool zum Entfernen von Kleidung aus Fotos.

Undress AI Tool

Undress AI Tool

Ausziehbilder kostenlos

Clothoff.io

Clothoff.io

KI-Kleiderentferner

Video Face Swap

Video Face Swap

Tauschen Sie Gesichter in jedem Video mühelos mit unserem völlig kostenlosen KI-Gesichtstausch-Tool aus!

Heiße Werkzeuge

Notepad++7.3.1

Notepad++7.3.1

Einfach zu bedienender und kostenloser Code-Editor

SublimeText3 chinesische Version

SublimeText3 chinesische Version

Chinesische Version, sehr einfach zu bedienen

Senden Sie Studio 13.0.1

Senden Sie Studio 13.0.1

Leistungsstarke integrierte PHP-Entwicklungsumgebung

Dreamweaver CS6

Dreamweaver CS6

Visuelle Webentwicklungstools

SublimeText3 Mac-Version

SublimeText3 Mac-Version

Codebearbeitungssoftware auf Gottesniveau (SublimeText3)

Verwenden von DICR/YII2-Google zur Integration von Google API in YII2 Verwenden von DICR/YII2-Google zur Integration von Google API in YII2 Apr 18, 2025 am 11:54 AM

VPROCESSERAZRABOTKIVEB-ENTLEGEN, мненеришшшо & лносsprechen, LeavallySumballanceFriablanceFaumdoptomatification, čtookazalovnetakprosto, Kakaožidal.Posenesko

Wie verwendet ich die Redis -Cache -Lösung, um die Anforderungen der Produktranking -Liste effizient zu erkennen? Wie verwendet ich die Redis -Cache -Lösung, um die Anforderungen der Produktranking -Liste effizient zu erkennen? Apr 19, 2025 pm 11:36 PM

Wie erkennt die Redis -Caching -Lösung die Anforderungen der Produktranking -Liste? Während des Entwicklungsprozesses müssen wir uns häufig mit den Anforderungen der Ranglisten befassen, z. B. das Anzeigen eines ...

Titel: So verwenden Sie Komponist, um verteilte Verriegelungsprobleme zu lösen Titel: So verwenden Sie Komponist, um verteilte Verriegelungsprobleme zu lösen Apr 18, 2025 am 08:39 AM

Zusammenfassungsbeschreibung: Verteilte Verriegelung ist ein wichtiges Instrument zur Gewährleistung der Datenkonsistenz bei der Entwicklung hoher Parallelitätsanwendungen. Dieser Artikel startet aus einem praktischen Fall und führt ausführlich vor, wie der Komponist zur Installation und Verwendung der Dino-MA/Distributed-Lock-Bibliothek zur Lösung des verteilten Sperrproblems und die Sicherung der Sicherheit und Effizienz des Systems verwendet wird.

Was tun, wenn der Redis -Cache im Spring -Boot fehlschlägt? Was tun, wenn der Redis -Cache im Spring -Boot fehlschlägt? Apr 19, 2025 pm 08:03 PM

Verwenden Sie im Springboot Redis, um das OAuth2Authorization -Objekt zu speichern. Verwenden Sie in der Springboot -Anwendung SpringSecurityoAuth2AuthorizationServer ...

Warum ist der Rückgabewert leer, wenn redistemplate für die Stapelabfrage verwendet wird? Warum ist der Rückgabewert leer, wenn redistemplate für die Stapelabfrage verwendet wird? Apr 19, 2025 pm 10:15 PM

Warum ist der Rückgabewert leer, wenn redistemplate für die Stapelabfrage verwendet wird? Bei Verwendung von Redistemplate für Batch -Abfragevorgänge können Sie auf die zurückgegebenen Ergebnisse stoßen ...

Was ist der Grund, warum der Browser nicht reagiert, nachdem der WebSocket -Server 401 zurückgegeben hat? Wie löst ich es? Was ist der Grund, warum der Browser nicht reagiert, nachdem der WebSocket -Server 401 zurückgegeben hat? Wie löst ich es? Apr 19, 2025 pm 02:21 PM

Die nicht reagierende Methode des Browsers, nachdem der WebSocket -Server 401 zurückgegeben hat. Wenn Sie Netty zur Entwicklung eines WebSocket -Servers verwenden, müssen Sie häufig auf das Token überprüft werden. � ...

Wie kann in einer Multi-Knoten-Umgebung sichergestellt werden, dass die @Scheduled-Timing-Aufgabe von Spring Boot nur auf einem Knoten ausgeführt wird? Wie kann in einer Multi-Knoten-Umgebung sichergestellt werden, dass die @Scheduled-Timing-Aufgabe von Spring Boot nur auf einem Knoten ausgeführt wird? Apr 19, 2025 pm 10:57 PM

Die Optimierungslösung für Springboot-Timing-Aufgaben in einer Multi-Knoten-Umgebung ist die Entwicklung des Frühlings ...

See all articles