Table des matières
 Exploitation et maintenance du Big Data" > Exploitation et maintenance du Big Data
Maison Opération et maintenance exploitation et maintenance Linux Exploitation et maintenance du Big Data Big Data

Exploitation et maintenance du Big Data Big Data

Jul 23, 2020 pm 05:24 PM
1

 Exploitation et maintenance du Big Data

1.HDFSExploitation et maintenance du système de fichiers distribués

1.Créer une récursivité dans le répertoire racine du HDFS Répertoire du système de fichiers "1daoyun/file", téléchargez le fichier BigDataSkills.txt ci-joint Aller dans le répertoire 1daoyun/file et utilisez les commandes appropriées pour afficher les fichiers dans le système 1daoyun/file Informations sur la liste du répertoire.

hadoop fs -mkdir -p /1daoyun/file

hadoop fs -put BigDataSkills.txt /1daoyun/file

hadoop fs -ls /1daoyun/file

2.dans HDFS Créez un répertoire récursif "1daoyun/file" dans le répertoire racine du système de fichiers, modifiez le BigDataSkills.txt , téléchargez-le dans le répertoire 1daoyun/file et utilisez HDFS Système de fichiers L'outil de vérification vérifie si les fichiers sont endommagés.

hadoop fs -mkdir -p /1daoyun/file

hadoop fs -put BigDataSkills.txt/1daoyun/file

hadoop fsck /1daoyun/file/BigDataSkills.txt

3. dans Créez un répertoire récursif "1daoyun/file" dans le répertoire racine du système de fichiers HDFS , et ajoutez le dans la pièce jointe Le fichier BigDataSkills.txt est téléchargé dans le répertoire 1daoyun/file , et le processus de téléchargement spécifie Les fichiers BigDataSkills.txt dans le système de fichiers HDFS ont un facteur de réplication de 2 et utilisent fsck ToolL'outil vérifie le nombre de copies d'un bloc de stockage.

hadoop fs -mkdir -p /1daoyun/file

hadoop fs -D dfs.replication=2 -put BigDataSkills.txt /1daoyun/file

hadoop fsck /1daoyun/file/BigDataSkills.txt

4.HDFS Il y a un système de fichiers à la racine répertoire /apps répertoire de fichiers, il est nécessaire d'activer la fonction de création d'instantané de ce répertoire et de créer un instantané pour le fichier de répertoire, le nom de l'instantané est apps_1daoyun, utilisez pour afficher les informations de liste du fichier d'instantané à l'aide des commandes associées.

hadoop dfsadmin -allowSnapshot /apps

hadoop fs -createSnapshot /apps apps_1daoyun

hadoop fs -ls /apps/.snapshot

5.quand Hadoop Lorsque le cluster démarre, il entrera d'abord en mode sans échec, qui se terminera après 30 secondes par défaut. Lorsque le système est en mode sans échec, le système de fichiers HDFS peut uniquement être lu et ne peut pas effectuer d'opérations telles que l'écriture, la modification, la suppression, etc. Supposons maintenant que le cluster Hadoop doit être maintenu, et qu'il est nécessaire de mettre le cluster en mode sans échec et vérifier son état.

hdfs dfsadmin -safemode enter

hdfs dfsadmin -safemode get

6.Afin d'éviter que les opérateurs ne suppriment accidentellement des fichiers, le système de fichiers HDFS fournit la fonction de corbeille, mais De nombreux fichiers indésirables occuperont beaucoup d'espace de stockage. Il est nécessaire que l'interface WEB de la plateforme Xiandian Big Data soit complètement supprimée du fichier HDFS corbeille du système. L'intervalle de temps est de 7 jours. Avancécore-sitefs.trash.interval : 10080

Exploitation et maintenance du Big Data Big Data

7.Afin d'empêcher les opérateurs de supprimer accidentellement des fichiers, le système de fichiers HDFS fournit une fonction de corbeille, mais trop de fichiers indésirables occuperont beaucoup d'espace de stockage. Il est nécessaire d'utiliser la commande "vi" dans Linux Shell pour modifier le fichier de configuration correspondant et les informations sur les paramètres. fonction corbeille. Une fois terminé, redémarrez le service correspondant . Avancécore-sitefs.trash.interval : 0vi /etc/hadoop/2.4.3.0 -227/0/core-site.xml

fs. trash.interval

                                                                                           dfs.sh

8.Hadoop Les hôtes du cluster peuvent subir des temps d'arrêt ou des dommages au système dans certaines circonstances Une fois ces problèmes rencontrés, les fichiers de données dans

HDFS. Le système de fichiers sera inévitablement endommagé ou perdu

Afin d'assurer HDFS

La fiabilité du système de fichiers nécessite désormais la réplication redondante du cluster. prendre en compte l'WEB

interface de la plateforme big data Xidian modifiée en 5. GénéralRéplication de bloc5

9.Hadoop Les hôtes du cluster peuvent subir des temps d'arrêt ou des dommages au système dans certaines circonstances Ces problèmes, <.>HDFS les fichiers de données dans le système de fichiers seront inévitablement endommagés ou perdus, Afin de garantir que HDFS Pour la fiabilité de le système de fichiers, le facteur de réplication de redondance du cluster doit être modifié à 5, dans Linux Shell Utilisez la commande "vi" pour modifier le fichier de configuration correspondant et les informations sur les paramètres. Une fois terminé, redémarrez le service correspondant.

Exploitation et maintenance du Big Data Big Data ou

vi/etc/hadoop/2.4.3.0-227/0/hdfs- site.xml

dfs.replication

                                                                                                       > /usr/hdp/current/hadoop-client/sbin/hadoop-daemon.sh --config /usr/hdp/current/hadoop-client/conf stop {namenode/datenode}

/usr/hdp/current/hadoop-client/sbin/hadoop-daemon.sh --config /usr/hdp/current/hadoop-client/conf start {namenode/datenode >

10.

Utilisez la commande pour afficher le système de fichiers hdfs

/tmp

Le nombre de répertoires sous le répertoire, le nombre de fichiers et la taille totale des fichiers . hadoop fs -count /tmp2.MapREDUCE Question de cas

1.Dans le nœud du cluster/usr/hdp/2.4.3.0-227/hadoop-mapreduce/ répertoire, il existe un cas JAR package hadoop-mapreduce-examples.jar. Exécutez le programme PI dans le package JAR pour calculer Piπapproximation de , nécessite d'exécuter 5 fois pour chaque tâche Carte Le nombre de lancers pour la tâche est de 5. cd /usr/hdp/2.4.3.0-227/hadoop-mapreduce/

hadoop jar hadoop- mapreduce-examples-2.7.1.2.4.3.0-227.jar pi 5 5

2.Exploitation et maintenance du Big Data Big Data Il existe un répertoire case

/usr/hdp/2.4.3.0-227/hadoop-mapreduce/ 🎜>JAR Packagehadoop-mapreduce-examples.jar. Exécutez le programme wordcount dans le package JAR pour associer /1daoyun/file / BigDataSkills.txt compte les mots, affiche les résultats de l'opération dans le répertoire /1daoyun/output et utilise les commandes associées pour interroger les résultats du nombre de mots. hadoop jar/usr/hdp/2.4.3.0-227/hadoop-mapreduce/hadoop-mapreduce-examples-2.7.1.2.4.3.0-227.jar wordcount /1daoyun/ fichier/BigDataSkills.txt /1daoyun/output

3.Dans le nœud du cluster/usr/hdp/2.4.3.0-227/hadoop-mapreduce/ répertoire, il existe un cas JAR package hadoop-mapreduce-examples.jar. Exécutez le programme sudoku dans le package JAR pour calculer les résultats des problèmes de Sudoku dans le tableau ci-dessous . .

Exploitation et maintenance du Big Data Big Data

cat puzzle1.dta

hadoop jarhadoop-mapreduce-examples- 2.7.1.2.4.3.0-227.jar sudoku /root/puzzle1.dta

4.dans le nœud de cluster /usr/hdp/2.4.3.0-227/hadoop-mapreduce/ répertoire, il y a un cas JAR Package hadoop-mapreduce-examples.jar. Exécutez le programme grep dans le package JAR pour compter le système de fichiers / 1daoyun/file/BigDataSkills. txt Le nombre d'occurrences de "Hadoop" dans le fichier Après avoir compté , interrogez les informations du résultat statistique.

hadoop jarhadoop-mapreduce-examples-2.7.1.2.4.3.0-227.jar grep /1daoyun/file/BigDataSkills.txt /output hadoop

Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!

Déclaration de ce site Web
Le contenu de cet article est volontairement contribué par les internautes et les droits d'auteur appartiennent à l'auteur original. Ce site n'assume aucune responsabilité légale correspondante. Si vous trouvez un contenu suspecté de plagiat ou de contrefaçon, veuillez contacter admin@php.cn

Outils d'IA chauds

Undresser.AI Undress

Undresser.AI Undress

Application basée sur l'IA pour créer des photos de nu réalistes

AI Clothes Remover

AI Clothes Remover

Outil d'IA en ligne pour supprimer les vêtements des photos.

Undress AI Tool

Undress AI Tool

Images de déshabillage gratuites

Clothoff.io

Clothoff.io

Dissolvant de vêtements AI

AI Hentai Generator

AI Hentai Generator

Générez AI Hentai gratuitement.

Article chaud

R.E.P.O. Crystals d'énergie expliqués et ce qu'ils font (cristal jaune)
4 Il y a quelques semaines By 尊渡假赌尊渡假赌尊渡假赌
R.E.P.O. Meilleurs paramètres graphiques
4 Il y a quelques semaines By 尊渡假赌尊渡假赌尊渡假赌
R.E.P.O. Comment réparer l'audio si vous n'entendez personne
4 Il y a quelques semaines By 尊渡假赌尊渡假赌尊渡假赌
WWE 2K25: Comment déverrouiller tout dans Myrise
1 Il y a quelques mois By 尊渡假赌尊渡假赌尊渡假赌

Outils chauds

Bloc-notes++7.3.1

Bloc-notes++7.3.1

Éditeur de code facile à utiliser et gratuit

SublimeText3 version chinoise

SublimeText3 version chinoise

Version chinoise, très simple à utiliser

Envoyer Studio 13.0.1

Envoyer Studio 13.0.1

Puissant environnement de développement intégré PHP

Dreamweaver CS6

Dreamweaver CS6

Outils de développement Web visuel

SublimeText3 version Mac

SublimeText3 version Mac

Logiciel d'édition de code au niveau de Dieu (SublimeText3)

Comment utiliser des expressions régulières (regex) dans Linux pour la correspondance de motifs? Comment utiliser des expressions régulières (regex) dans Linux pour la correspondance de motifs? Mar 17, 2025 pm 05:25 PM

L'article explique comment utiliser des expressions régulières (regex) dans Linux pour la correspondance de motifs, la recherche de fichiers et la manipulation du texte, la syntaxe détaillant, les commandes et les outils comme Grep, SED et AWK.

Comment surveiller les performances du système dans Linux à l'aide d'outils comme TOP, HTOP et VMSTAT? Comment surveiller les performances du système dans Linux à l'aide d'outils comme TOP, HTOP et VMSTAT? Mar 17, 2025 pm 05:28 PM

L'article discute de l'utilisation de TOP, HTOP et VMSTAT pour surveiller les performances du système Linux, détaillant leurs fonctionnalités uniques et leurs options de personnalisation pour une gestion efficace du système.

Comment implémenter l'authentification à deux facteurs (2FA) pour SSH dans Linux? Comment implémenter l'authentification à deux facteurs (2FA) pour SSH dans Linux? Mar 17, 2025 pm 05:31 PM

L'article fournit un guide sur la configuration de l'authentification à deux facteurs (2FA) pour SSH sur Linux à l'aide de Google Authenticator, détaillant l'installation, la configuration et les étapes de dépannage. Il met en évidence les avantages de sécurité du 2FA, comme SEC amélioré

Comment gérer les packages logiciels dans Linux à l'aide de gestionnaires de packages (APT, YUM, DNF)? Comment gérer les packages logiciels dans Linux à l'aide de gestionnaires de packages (APT, YUM, DNF)? Mar 17, 2025 pm 05:26 PM

L'article discute de la gestion des packages de logiciels dans Linux à l'aide d'APT, YUM et DNF, couvrant l'installation, les mises à jour et les déménagements. Il compare leurs fonctionnalités et leur pertinence pour différentes distributions.

Comment utiliser Sudo pour accorder des privilèges élevés aux utilisateurs de Linux? Comment utiliser Sudo pour accorder des privilèges élevés aux utilisateurs de Linux? Mar 17, 2025 pm 05:32 PM

L'article explique comment gérer les privilèges sudo à Linux, y compris l'octroi, la révocation et les meilleures pratiques de sécurité. L'accent est mis sur l'édition / etc.

Opérations clés de Linux: Guide du débutant Opérations clés de Linux: Guide du débutant Apr 09, 2025 pm 04:09 PM

Les débutants Linux doivent maîtriser les opérations de base telles que la gestion des fichiers, la gestion des utilisateurs et la configuration du réseau. 1) Gestion des fichiers: utilisez les commandes MKDIR, Touch, LS, RM, MV et CP. 2) Gestion des utilisateurs: utilisez des commandes UserAdd, Passwd, UserDel et UserMod. 3) Configuration du réseau: utilisez les commandes IFConfig, Echo et UFW. Ces opérations sont à la base de la gestion du système Linux, et les maîtriser peut gérer efficacement le système.

Les 5 piliers de Linux: comprendre leurs rôles Les 5 piliers de Linux: comprendre leurs rôles Apr 11, 2025 am 12:07 AM

Les cinq piliers du système Linux sont: 1. Kernel, 2. Bibliothèque système, 3. Shell, 4. Système de fichiers, 5. Outils système. Le noyau gère les ressources matérielles et fournit des services de base; La bibliothèque système fournit des fonctions précompilées pour les applications; Le shell est l'interface permettant aux utilisateurs d'interagir avec le système; Le système de fichiers organise et stocke les données; et les outils système sont utilisés pour la gestion et la maintenance du système.

Mode de maintenance Linux: outils et techniques Mode de maintenance Linux: outils et techniques Apr 10, 2025 am 09:42 AM

Dans les systèmes Linux, le mode de maintenance peut être entré en appuyant sur une touche spécifique au démarrage ou en utilisant une commande telle que "Sudosystemctlrescue". Le mode de maintenance permet aux administrateurs d'effectuer la maintenance du système et le dépannage sans interférence, tels que la réparation des systèmes de fichiers, la réinitialisation des mots de passe, le correctif des vulnérabilités de sécurité, etc.

See all articles