Préparer l'environnement
node1:192.168.139.2
node2:192.168.139.4
node4:192.168.139.8
node5 : 192.1 68 .139.9
node1 comme côté cible
node2 node4 node5 comme côté initiateur
et node2 node4 node5 est configuré dans un cluster haute disponibilité RHCS à trois nœuds après l'installation de cman rgmanager. Étant donné que gfs2 est un système de fichiers de cluster, les nœuds défectueux doivent être clôturés à l'aide du cluster haute disponibilité HA et du nœud. les informations doivent être transférées à l’aide de la couche message.
Étant donné que la cible découverte et connectée doit être transformée en un système de fichiers intégré, gfs2-utils doit être installé sur node2 node4 node5
D'abord utilisez le service Stop the cluster original créé par luci/ricci (un service de cluster que j'ai créé lors d'une expérience précédente, qui n'a rien à voir avec cette expérience)
[root@ node2 mnt]# clusvcadm -d Web_Service
Service de désactivation de la machine locale :Web_Service...
[root@node2 mnt]# clustat
État du cluster pour zxl @ mercredi décembre 21 17:55:46 2016
Statut du membre : Quorate
Nom du membre ID Statut
---- Statut de membre : - ---
node2.zxl.com 1 En ligne, local, rgmanager
node4.zxl.com 2 En ligne, rgmanager
Nom du service Propriétaire (dernier)
Si cman ou rgmanager n'est pas installé, exécutez la commande suivante
[root@node2 mnt]#yum -y install cman rgmanager
Utilisez la commande css_tool pour créer un cluster, le nom du cluster est mycluster
[root@node2 mnt]# ccs_tool créer moncluster
Ajouter un périphérique Fence (RHCS Le cluster est requis) Meatware fence_manual
-v spécifie le nombre de votes dont dispose le nœud
-n spécifie l'identifiant du nœud
-f spécifie le nom du périphérique Fence
Ajoutez trois nœuds, le cluster RHCS doit en avoir au moins trois nodes
[root@node2 mnt]# ccs_tool addnode -v 1 -n 1 -f Meatware node2
[root@node2 mnt]# ccs_tool addnode -v 1 -n. 2 -f Meatware node4.zxl.com
[root@node2 mnt]# ccs_tool addnode -v 1 -n 3 -f Meatware node5.zxl.com
Afficher les nœuds du cluster
[root@node2 mnt]# ccs_tool lsnode
Nom du cluster : mycluster, config_version : 5
Nodename Votes Nodeid Fencetypenode2.zxl.com 1 1 Meatwarenode4.zxl . Vaisselle 🎜>[racine @node2 mnt]# scp /etc/cluster/cluster. conf node4:/etc/cluster/
[root@node2 mnt]# service cman start
[root@node2 mnt]# service rgmanager start
[root@node4 mnt ]# service cman start
[root@node4 mnt]#service rgmanager start
[root@node5 mnt]# service cman start
[root@node5 mnt]# service rgmanager start
[root@node2 mnt]# cluster
Cluster Statut pour mycluster @ mercredi 21 décembre 18:40:26 2016
Statut du membre : Quorate
Statut d'identification du nom de membre
-- ---- ---- Avec avec avec avec avec avec 1 🎜> node5.zxl.com 3 En ligne
[root@node2 mnt]# rpm -ql gfs2- utils/etc/rc.d/ init.d/gfs2
/sbin/fsck.gfs2
/sbin/mkfs.gfs2 \Format pour créer le fichier gfs2 system
/sbin/mount.gfs2 \ Monter le système de fichiers gfs2
/usr/sbin/gfs2_convert
Utilisation du mkfs La commande .gfs2 -j spécifie le numéro de la zone de journal, quelques-uns peuvent être montés par plusieurs nœuds, car après le formatage en tant que système de fichiers de cluster, chaque nœud doit avoir des enregistrements de journal
-J spécifie la taille du journal, la valeur par défaut est 128M
-p {lock_dlm|lock_nolock} Gestion des verrous distribués | pas de verrou
-t
Format du nom de la table de verrouillage
cluster_name : nom de la table de verrouillage
Par exemple : mycluster:lock_sda
-D Afficher les informations détaillées de débogage
Connectez-vous à la cible et formatez-la en tant que système de fichiers gfs2[root@node2 mnt]# iscsiadm -m node -T iqn.2016-12.com.zxl:store1 .disk1 -p 192.168.139.2 -l[root@node2 mnt]# mkfs.gfs2 -j 2 -p lock_dlm -t mycluster:lock_sde1 / dev/sde1
Êtes-vous sûr de vouloir continuer ? [o/n] y
Taille du système de fichiers : 3,00 Go (787328 blocs) 🎜>Protocole de verrouillage : "lock_dlm"
Table de verrouillage : " mycluster:lock_sde1"
UUID : 9ebdc83b-9a61-9a4a-3ba7-9c80e59a0a2d
Format terminé, test de montage
[root@node2 mnt]# mount -t gfs2 / dev/sde1 /mnt
[root@node2 mnt]# cd /mnt
[root@node2 mnt]# ll
total 0
[ root@node2 mnt]# cp /etc/issue ./
[root@node2 mnt]# ll
total 8
-rw-r--r-- .1 root root 47 21 décembre 19:06 issue
ok, change node4[root @node4 ~]# iscsiadm -m node -T iqn .2016-12.com.zxl:store1.disk1 -p 192.168.139.2 -lnode4 n'a pas besoin d'être formaté à nouveau, montez directement [root@node4 ~]# mount -t gfs2 /dev/sdc1 /mnt[root@node4 ~]# cd /mnt[root@node4 mnt]# ll \ Vous pouvez voir le fichier copié par node1
total 8
-rw-r--r--. 1 root root 47 21 décembre 19:06 issue
node4 crée un Le fichier a.txt sera immédiatement notifié vers d'autres nœuds pour qu'ils puissent le voir. C'est l'avantage du système de fichiers du cluster gfs2
[root@node4 mnt]# touch a.txt
[root @node2 mnt]# ll<.>
total 16-rw-r--r--. 1 racine racine 0 21 décembre 19:10 a.txt-rw -r--r-- .1 root root 47 21 décembre 19:06 issueAjout d'un nœud node5
[root@node5 ~] # iscsiadm -m node -T iqn .2016-12.com.zxl:store1.disk1 -p 192.168.139.2 -l
ne peut pas être monté car seuls deux fichiers journaux de cluster sont créés. Combien y a-t-il ? Un journal peut être monté sur plusieurs nœuds.
[root@node5 ~]# mount -t gfs2 /dev/sdc1 /mnt
Trop de nœuds de système de fichiers de montage, pas de journaux gratuits
Ajouter un journal
[root@node2 mnt]# gfs2_jadd -j 1 /dev/sde1 \-j 1 Ajouter un journal
Le système de fichiers de cluster gfs2 ne prend généralement pas en charge plus de 16 clusters. Après cela, les performances chutent
.Pour plus d'articles sur RHCS utilisant la commande css_tool pour créer un cluster HA et créer un système de fichiers de cluster gfs2, veuillez faire attention au site Web PHP chinois !