Wie man Debian Hadoop testet
Dieser Artikel führt Sie dazu, Apache Hadoop in Ihrem Debian -System zu installieren und zu testen. In den folgenden Schritten werden die Konfigurationsprozess- und Überprüfungsmethoden detailliert beschrieben.
Schritt 1: Java installieren
Stellen Sie sicher, dass das System Java 8 oder höher installiert ist. Installieren Sie OpenJDK 8 mit dem folgenden Befehl:
sudo APT -Update sudo apt installieren openjdk-8-jdk
Überprüfen Sie die Installation:
Java -Version
Schritt 2: Download und dekomprimieren Sie Hadoop
Laden Sie die neueste Version von Hadoop von der offiziellen Website von Apache Hadoop herunter und entpacken Sie sie in das angegebene Verzeichnis (z /usr/local/hadoop
):
wGet https://downloads.apache.org/hadoop/common/hadoop-3.3.1/hadoop-3.3.1.tar.gz tar -xzvf hadoop -3.3.1.tar.gz -c/usr/local/hadoop `` `(Bitte ersetzen Sie` Hadoop-3.3.1` durch die tatsächliche Versionsnummer) ** Schritt 3: Umgebungsvariablen konfigurieren ** Bearbeiten Sie die Datei "~/.bashrc" und fügen Sie die folgenden Umgebungsvariablen hinzu: `` `bash Export hadoop_home =/usr/local/hadoop Exportpfad = $ Path: $ Hadoop_Home/bin: $ hadoop_home/sbin
Die Änderungen wirksam werden:
Quelle ~/.bashrc
Schritt 4: Konfigurieren Sie die Hadoop -Konfigurationsdatei
Ändern Sie die Konfigurationsdatei im Hadoop -Verzeichnis:
- Core-Site.xml :
<configuration> <property> <name>Fs.DefaultFs</name> <value>HDFS: // NAMENODE: 9000</value> </property> </configuration>
- HDFS-site.xml :
<configuration> <property> <name>DFS.Replikation</name> <value>3</value> </property> <property> <name>dfs.namenode.name.dir</name> <value>/usr/local/hadoop/dfs/name</value> </property> <property> <name>dfs.datanode.data.dir</name> <value>/usr/local/hadoop/dfs/Daten</value> </property> </configuration>
- Mapred-Site.xml :
<configuration> <property> <name>MAPREDUCE.FRAMEWORK.NAME</name> <value>Garn</value> </property> </configuration>
- Garn-Site.xml :
<configuration> <property> <name>marn.nodemanager.aux-services</name> <value>MAPREDUCE_SHUFFE</value> </property> <property> <name>marn.nodemanager.aux-services.mapreduce.shuffle.class</name> <value>org.apache.hadoop.mapred.shuffleHandler</value> </property> </configuration>
Schritt 5: Format HDFs Format
Führen Sie auf dem Namenode -Knoten den folgenden Befehl aus, um HDFs zu formatieren:
HDFS NAMENODE -Format
Schritt 6: Hadoop -Service starten
Starten Sie Namenode und Datanode im NAMENODE -Knoten:
Start-dfs.sh
Starten Sie Garn auf dem Ressourcenemanager -Knoten:
Start marn.sh
Schritt 7: Lokale Modus -Tests
Wechseln Sie zu Hadoop -Benutzer:
Su - Hadoop
Erstellen Sie Eingangsverzeichnisse und -dateien:
mkdir ~/input vi ~/input/data.txt
Geben Sie Testdaten ein (z. B. "Hallo Welt", "Hello Hadoop"), speichern und beenden.
WordCount Beispiel ausführen:
Hadoop jar /usr/local/hadoop/share/hadoop/mapreduce/hadoop-mapreduce-examples-* `` `(Bitte passen Sie es gemäß dem tatsächlichen JAR -Paket -Dateinamen an) Sehen Sie sich die Ergebnisse an: `` `bash ls ~/output Cat ~/output/part-r-00000
Die korrekte Ausgabe zeigt an, dass der Hadoop -Lokalmodus erfolgreich ausgeführt wird. Bitte beachten Sie, dass die obigen Schritte davon ausgehen, dass Sie in einer eigenständigen Umgebung testen. Für Cluster -Umgebungen sind entsprechende Konfigurationsänderungen erforderlich. Weitere detailliertere und neueste Konfigurationsinformationen finden Sie in der offiziellen Hadoop -Dokumentation.
Das obige ist der detaillierte Inhalt vonWie man Debian Hadoop testet. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Heiße KI -Werkzeuge

Undresser.AI Undress
KI-gestützte App zum Erstellen realistischer Aktfotos

AI Clothes Remover
Online-KI-Tool zum Entfernen von Kleidung aus Fotos.

Undress AI Tool
Ausziehbilder kostenlos

Clothoff.io
KI-Kleiderentferner

Video Face Swap
Tauschen Sie Gesichter in jedem Video mühelos mit unserem völlig kostenlosen KI-Gesichtstausch-Tool aus!

Heißer Artikel

Heiße Werkzeuge

Notepad++7.3.1
Einfach zu bedienender und kostenloser Code-Editor

SublimeText3 chinesische Version
Chinesische Version, sehr einfach zu bedienen

Senden Sie Studio 13.0.1
Leistungsstarke integrierte PHP-Entwicklungsumgebung

Dreamweaver CS6
Visuelle Webentwicklungstools

SublimeText3 Mac-Version
Codebearbeitungssoftware auf Gottesniveau (SublimeText3)

Heiße Themen

VPROCESSERAZRABOTKIVEB-ENTLEGEN, мненеришшшо & лносsprechen, LeavallySumballanceFriablanceFaumdoptomatification, čtookazalovnetakprosto, Kakaožidal.Posenesko

Wie erkennt die Redis -Caching -Lösung die Anforderungen der Produktranking -Liste? Während des Entwicklungsprozesses müssen wir uns häufig mit den Anforderungen der Ranglisten befassen, z. B. das Anzeigen eines ...

JDBC ...

Zusammenfassungsbeschreibung: Verteilte Verriegelung ist ein wichtiges Instrument zur Gewährleistung der Datenkonsistenz bei der Entwicklung hoher Parallelitätsanwendungen. Dieser Artikel startet aus einem praktischen Fall und führt ausführlich vor, wie der Komponist zur Installation und Verwendung der Dino-MA/Distributed-Lock-Bibliothek zur Lösung des verteilten Sperrproblems und die Sicherung der Sicherheit und Effizienz des Systems verwendet wird.

Verwenden Sie im Springboot Redis, um das OAuth2Authorization -Objekt zu speichern. Verwenden Sie in der Springboot -Anwendung SpringSecurityoAuth2AuthorizationServer ...

Warum ist der Rückgabewert leer, wenn redistemplate für die Stapelabfrage verwendet wird? Bei Verwendung von Redistemplate für Batch -Abfragevorgänge können Sie auf die zurückgegebenen Ergebnisse stoßen ...

Die nicht reagierende Methode des Browsers, nachdem der WebSocket -Server 401 zurückgegeben hat. Wenn Sie Netty zur Entwicklung eines WebSocket -Servers verwenden, müssen Sie häufig auf das Token überprüft werden. � ...

Die Optimierungslösung für Springboot-Timing-Aufgaben in einer Multi-Knoten-Umgebung ist die Entwicklung des Frühlings ...
