Cara mengkonfigurasi sistem fail kluster yang sangat tersedia di Linux
Pengenalan:
Dalam bidang komputer, ketersediaan tinggi (ketersediaan tinggi) ialah teknologi yang bertujuan untuk meningkatkan kebolehpercayaan dan ketersediaan sistem. Dalam persekitaran kluster, sistem fail yang sangat tersedia adalah salah satu komponen penting untuk memastikan operasi berterusan sistem. Artikel ini akan memperkenalkan cara mengkonfigurasi sistem fail kluster yang tersedia pada Linux dan memberikan contoh kod yang sepadan.
Di Ubuntu, anda boleh menggunakan arahan berikut untuk memasang pakej:
sudo apt-get install pacemaker corosync drbd8-utils gfs2-utils
sudo nano /etc/hosts
Tambah yang berikut:
192.168.1.100 node1 192.168.1.101 node2
Buat fail konfigurasi Corosync.
sudo nano /etc/corosync/corosync.conf
Tambah yang berikut:
totem { version: 2 secauth: off cluster_name: mycluster transport: udpu } nodelist { node { ring0_addr: node1 nodeid: 1 } node { ring0_addr: node2 nodeid: 2 } } quorum { provider: corosync_votequorum } logging { to_syslog: yes to_logfile: yes logfile: /var/log/corosync.log debug: off timestamp: on }
sudo systemctl enable corosync sudo systemctl enable pacemaker
Mulakan perkhidmatan.
sudo systemctl start corosync sudo systemctl start pacemaker
Buat fail konfigurasi DRBD.
sudo nano /etc/drbd.d/myresource.res
Tambahkan yang berikut:
resource myresource { protocol C; on node1 { device /dev/drbd0; disk /dev/sdb; address 192.168.1.100:7789; meta-disk internal; } on node2 { device /dev/drbd0; disk /dev/sdb; address 192.168.1.101:7789; meta-disk internal; } net { allow-two-primaries; } startup { wfc-timeout 15; degr-wfc-timeout 60; } syncer { rate 100M; al-extents 257; } on-node-upgraded { # promote node1 to primary after a successful upgrade if [ "$(cat /proc/sys/kernel/osrelease)" != "$TW_AFTER_MAJOR.$TW_AFTER_MINOR.$TW_AFTER_UP" ] && [ "$(cat /proc/mounts | grep $DRBD_DEVICE)" = "" ] ; then /usr/bin/logger "DRBD on-node-upgraded handler: Promoting to primary after upgrade."; /usr/sbin/drbdsetup $DRBD_DEVICE primary; fi; } }
sudo drbdadm create-md myresource
Mulakan DRBD.
sudo systemctl start drbd
sudo mkfs.gfs2 -p lock_gulmd -t mycluster:myresource /dev/drbd0
sudo mkdir /mnt/mycluster sudo mount -t gfs2 /dev/drbd0 /mnt/mycluster
sudo pcs resource create myresource Filesystem device="/dev/drbd0" directory="/mnt/mycluster" fstype="gfs2" op start timeout="60s" op stop timeout="60s" op monitor interval="10s" op monitor timeout="20s" op monitor start-delay="5s" op monitor stop-delay="0s"
sudo pcs constraint order myresource-clone then start myresource sudo pcs constraint colocation add myresource with myresource-clone
sudo pcs cluster stop node1
sudo mount | grep "/mnt/mycluster"
Output hendaklah alamat dan titik lekapan nod siap sedia.
sudo pcs cluster start node1
sudo mount | grep "/mnt/mycluster"
Output hendaklah alamat dan titik lekapan nod induk.
Kesimpulan:
Mengkonfigurasi sistem fail kluster yang tersedia boleh meningkatkan kebolehpercayaan dan ketersediaan sistem. Artikel ini menerangkan cara mengkonfigurasi sistem fail kluster yang tersedia pada Linux dan menyediakan contoh kod yang sepadan. Pembaca boleh mengkonfigurasi dan melaraskan dengan sewajarnya mengikut keperluan mereka sendiri untuk mencapai ketersediaan yang lebih tinggi.
Atas ialah kandungan terperinci Bagaimana untuk mengkonfigurasi sistem fail kluster yang sangat tersedia di Linux. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!