heartbeat+DRBD+mysql+LVS集群实战_MySQL
四台主机
主机名 IP地址 用途
dbm128 172.16.0.128 heartbeat+DRBD+MYSQL的primary节点
dbm129 172.16.0.129 heartbeat+DRBD+mysql 的secondary节点
dbs130 172.16.0.130 slave(mater_host=172.16.0.233)
dbs131 172.16.0.131 slave(mater_host=172.16.0.233)
配置前的准备
1.设置hostname及解析
编辑/etc/hosts文件,添加如下内容:
172.16.0.128 dbm128
172.16.0.129 dbm129
2.新增加一块/dev/sdb5硬盘存放DRBD数据(两台都增加)
命令如下:
[root@dbm128 ~]# fdisk /dev/sdb
Device contains neither a valid DOS partition table, nor Sun, SGI or OSF disklabel
Building a new DOS disklabel. Changes will remain in memory only,
until you decide to write them. After that, of course, the previous
content won't be recoverable.
The number of cylinders for this disk is set to 6527.
There is nothing wrong with that, but this is larger than 1024,
and could in certain setups cause problems with:
1) software that runs at boot time (e.g., old versions of LILO)
2) booting and partitioning software from other OSs
(e.g., DOS FDISK, OS/2 FDISK)
Warning: invalid flag 0x0000 of partition table 4 will be corrected by w(rite)
Command (m for help): n
Command action
e extended
p primary partition (1-4)
e
Partition number (1-4): 1
First cylinder (1-6527, default 1):
Using default value 1
Last cylinder or +size or +sizeM or +sizeK (1-6527, default 6527):
Using default value 6527
Command (m for help): n
Command action
l logical (5 or over)
p primary partition (1-4)
l
First cylinder (1-6527, default 1):
Using default value 1
Last cylinder or +size or +sizeM or +sizeK (1-6527, default 6527):
Using default value 6527
Command (m for help): w
The partition table has been altered!
Calling ioctl() to re-read partition table.
Syncing disks.
3.DRBD的部署(两台机器都这么做)
yum -y install gcc gcc-c++ kernel* 安装好后重启一下,免得后面出错
#wget http://oss.linbit.com/drbd/8.4/drbd-8.4.3.tar.gz
# tar zxvf drbd-8.4.3.tar.gz
# cd drbd-8.4.3
# ./configure --prefix=/ --with-km
#make
#make install
4. 加载安装DRDB模块
#modprobe drbd
机器重启后DRBD模块消失,需要写入/etc/rc.local开机自动执行
通过lsmod来检查是否已经执行成功
[root@dbm128 drbd-8.4.3]# lsmod | grep drbd
drbd 327968 0
5.编辑配置文件(两台配置一样dbm128,dbm129)
如果后面有问题要把LINUX防火墙关闭,或者把端口增加过去
[root@dbm128 drbd-8.4.3]# cat /etc/drbd.conf
global {usage-count yes;}
common{syncer{rate 200M;}}
resource r0{
protocol C;
net{
cram-hmac-alg sha1;
shared-secret "FooFunFactory";
}
disk{
on-io-error detach;
fencing resource-only;
}
startup{
wfc-timeout 120;
degr-wfc-timeout 120;
}
device /dev/drbd1;
on dbm128{
disk /dev/sdb5;
address 172.16.0.128:7789;
meta-disk internal;
}
on dbm129{
disk /dev/sdb5;
address 172.16.0.129:7789;
meta-disk internal;
}
}
6.启动DRBD(两台操作)
可通过如下命令启动DRBD
[root@dbm128 drbd-8.4.3]# drbdadm create-md all
[root@dbm128 drbd-8.4.3]# /etc/init.d/drbd start
[root@dbm128 drbd-8.4.3]# drbdadm -- --overwrite-data-of-peer primary all (这一步只在主服务器上做)
在主机上查看DRBD状态
[root@dbm128 ~]# cat /proc/drbd
version: 8.4.3 (api:1/proto:86-101)
GIT-hash: 89a294209144b68adb3ee85a73221f964d3ee515 build by root@dbm128, 2014-07-18 23:01:15
1: cs:SyncSource ro:Primary/Secondary ds:UpToDate/Inconsistent C r---n-
ns:45789492 nr:0 dw:0 dr:45794304 al:0 bm:2794 lo:0 pe:3 ua:5 ap:0 ep:1 wo:f oos:6639292
[================>...] sync'ed: 87.4% (6480/51196)M
finish: 0:06:46 speed: 16,336 (18,732) K/sec
以上数据正在同步。下面同步完成
[root@dbm128 ~]# cat /proc/drbd
version: 8.4.3 (api:1/proto:86-101)
GIT-hash: 89a294209144b68adb3ee85a73221f964d3ee515 build by root@dbm128, 2014-07-18 23:01:15
1: cs:Connected ro:Primary/Secondary ds:UpToDate/UpToDate C r-----
ns:52426428 nr:0 dw:0 dr:52426428 al:0 bm:3200 lo:0 pe:0 ua:0 ap:0 ep:1 wo:f oos:0
在从机上查看DRBD状态
[root@dbm129 ~]# cat /proc/drbd
version: 8.4.3 (api:1/proto:86-101)
GIT-hash: 89a294209144b68adb3ee85a73221f964d3ee515 build by root@dbm129, 2014-07-18 23:14:34
1: cs:Connected ro:Secondary/Primary ds:UpToDate/UpToDate C r-----
ns:0 nr:52426428 dw:52426428 dr:0 al:0 bm:3200 lo:0 pe:0 ua:0 ap:0 ep:1 wo:f oos:0
在执行过程中,如果出现上述信息,代表操作成功
7.格式化DRBD文件系统(只在主机上做)
[root@dbm128 ~]# mkfs.ext3 /dev/drbd1
注意开机不要自启动DRBD服务,因为要通过heartbeat来启动DRBD
8.挂载DRBD分区
[root@dbm128 ~]# mkdir /data
[root@dbm128 ~]# mount /dev/drbd1 /data
[root@dbm128 ~]# df -h
Filesystem Size Used Avail Use% Mounted on
/dev/mapper/VolGroup00-LogVol00
92G 4.9G 82G 6% /
/dev/sda1 99M 35M 59M 38% /boot
tmpfs 501M 0 501M 0% /dev/shm
/dev/drbd1 50G 180M 47G 1% /data
后面就把mysql数据目录放在/data上
9.安装MYSQL数据库(四台都要安装)
安装所需要系统库相关库文件
[root@dbm128 ~]#yum -y install gcc gcc-c++ gcc-g77 autoconf automake zlib* fiex* libxml* ncurses-devel libmcrypt* libtool-ltdl-devel* cmake
[root@dbm128 ~]# groupadd mysql
[root@dbm128 ~]# useradd -r -g mysql mysql
[root@dbm128 ~]# tar zxvf mysql-5.5.25.tar.gz
[root@dbm128 ~]# cd mysql-5.5.25
[root@dbm128 mysql-5.5.25]# cmake -DCMAKE_INSTALL_PREFIX=/opt/mysql/ -DMYSQL_DATADIR=/opt/mysql/data -DMYSQL_UNIX_ADDR=/opt/mysql/data/mysqld.sock -DWITH_INNOBASE_STORAGE_ENGINE=1 -DENABLED_LOCAL_INFILE=1 -DMYSQL_TCP_PORT=3306 -DEXTRA_CHARSETS=all -DDEFAULT_CHARSET=utf8 -DDEFAULT_COLLATION=utf8_general_ci -DMYSQL_UNIX_ADDR=/opt/mysql/data/mysql.sock -DMYSQL_USER=mysql -DWITH_DEBUG=0
[root@dbm128 mysql-5.5.25]# make && make install
赋予相关的权限
[root@dbm128 mysql]# chown -R mysql:mysql /opt/mysql
[root@dbm128 mysql]# /opt/mysql/scripts/mysql_install_db --user=mysql --basedir=/opt/mysql --datadir=/opt/mysql/data
mysql配置文件
[root@dbm128 mysql]# cp /opt/mysql/support-files/mysql.server /etc/init.d/mysql
[root@dbm128 mysql]# cp /opt/mysql/support-files/my-large.cnf /etc/my.cnf
[root@dbm128 mysql]# chmod +x /etc/init.d/mysql
dbm128上操作就可以,因为会同步过去所以dbm129不用操作
[root@dbm128 mysql]# cp -r /opt/mysql/data /data/mysql
[root@dbm128 mysql]# chown -R mysql:mysql /data/mysql
[root@dbm128 mysql]# vi /etc/init.d/mysql (两台要修改dbm128,dbm129)
找到datadir=/opt/mysql/data 修改成datadir=/data/mysql
[root@dbm128 mysql]#/etc/init.d/mysql start 启动(dbm129不用去启动到时做heartbeat采用自动启动)
[root@dbm128 mysql]# /opt/mysql/bin/mysqladmin -u root password '123456' (三台都操作,dbm129不用操作已经同步过去了)
10.安装heartbeat(两台机器都安装)
要先安装DRBD,然后才能安装hearbeat
安装命令如下:
[root@dbm128 ~]# yum -y install heartbeat heartbeat-devel heartbeat-stonith heartbeat-pils
接下来配置文件
[root@dbm128 ~]# cp /usr/share/doc/heartbeat-2.1.3/ha.cf /etc/ha.d/ha.cf
[root@dbm128 ~]# cp /usr/share/doc/heartbeat-2.1.3/haresources /etc/ha.d/haresources
[root@dbm128 ~]# cp /usr/share/doc/heartbeat-2.1.3/authkeys /etc/ha.d/authkeys
[root@dbm128 ~]# chmod 600 /etc/ha.d/authkeys
修改ha.cf
[root@dbm128 ~]# cat /etc/ha.d/ha.cf
debugfile /var/log/ha-debug
logfile /var/log/ha-log
logfacility local0
keepalive 1
deadtime 15
warntime 5
initdead 30
ucast eth0 172.16.0.129 (修改对方的节点IP)
ping_group group 172.16.0.128 172.16.0.129
auto_failback on (从节点修改为off)
node dbm128
node dbm129
respawn hacluster /usr/lib64/heartbeat/ipfail
respawn hacluster /usr/lib64/heartbeat/dopd
apiauth ipfail gid=haclient uid=hacluster
apiauth dopd gid=haclient uid=hacluster
增加到后面cat /etc/ha.d/authkeys
auth 1
1 sha1 HA_JACKBILLOW
增加到后面 cat /etc/ha.d/haresources
dbm128 drbddisk::r0 Filesystem::/dev/drbd1::/data mysql IPaddr::172.16.0.233/24/eth0
上面dbm128主机,如果dbm129修改本主机名。
启动heartbeat服务:
[root@dbm128 ~]/etc/init.d/heartbeat start
[root@dbm129 ~]/etc/init.d/heartbeat start
配置heartbeat 在启动级别3中自动启动:
[root@dbm128 ~]chkconfig --level 35 heartbeat on
[root@dbm129 ~]chkconfig --level 35 heartbeat on
观察heartbeat 启动日志是否正常
[root@dbm128 ~]# tail -f /var/log/ha-log
IPaddr[4782]: 2014/07/21_16:48:15 INFO: Success
heartbeat[4147]: 2014/07/21_16:48:57 info: dbm129 wants to go standby [foreign]
heartbeat[4147]: 2014/07/21_16:48:57 info: standby: acquire [foreign] resources from dbm129
heartbeat[5029]: 2014/07/21_16:48:57 info: acquire local HA resources (standby).
ResourceManager[5042]: 2014/07/21_16:48:57 info: Acquiring resource group: dbm128 drbddisk::r0 Filesystem::/dev/drbd1::/data mysql IPaddr::172.16.0.233/24/eth0
Filesystem[5083]: 2014/07/21_16:48:58 INFO: Running OK
IPaddr[5158]: 2014/07/21_16:48:58 INFO: Running OK
heartbeat[5029]: 2014/07/21_16:48:58 info: local HA resource acquisition completed (standby).
heartbeat[4147]: 2014/07/21_16:48:58 info: Standby resource acquisition done [foreign].
heartbeat[4147]: 2014/07/21_16:48:58 info: remote resource transition completed.
测试一下,看172.16.0.233是VIP,在两台主机之间漂移。
11.主从复制的配置
修改dbs130,dbs131主的my.cnf的server-id=1,每个同步服务都必须设定一个唯一的编号。
在Master(这里为dbm128机器)上增加一个用于复制的账号:
mysql>GRANT REPLICATION SLAVE ON *.* TO 'repl'@'172.16.0.%' IDENTIFIED BY '123456';
mysql>FLUSH REPLICATION;
mysql> show master status;
+------------------+----------+--------------+------------------+
| File | Position | Binlog_Do_DB | Binlog_Ignore_DB |
+------------------+----------+--------------+------------------+
| mysql-bin.000018 | 107 | | |
+------------------+----------+--------------+------------------+
1 row in set (0.00 sec)
设置Slave 主机
修改my.cnf的server-id,内容如下:
dbs130主机
server-id=3
dbs130主机
server-id=4
开启Master与Slave的同步
在Slave上执行如下命令
mysql>CHANGE MASTER TO MASTER_HOST='172.16.0.233',
->MASTER_USER='repl',
->MASTER_PASSWORD='123456',
->MASTER_LOG_FILE=' mysql-bin.000018',
->MASTER_LOG_POS=107;
之后执行
mysql>slave start;
mysql> show slave status\G
*************************** 1. row ***************************
Slave_IO_State: Waiting for master to send event
Master_Host: 172.16.0.233
Master_User: repl
Master_Port: 3306
Connect_Retry: 60
Master_Log_File: mysql-bin.000018
Read_Master_Log_Pos: 107
Relay_Log_File: dbs130-relay-bin.000007
Relay_Log_Pos: 253
Relay_Master_Log_File: mysql-bin.000018
Slave_IO_Running: Yes
Slave_SQL_Running: Yes
Replicate_Do_DB:
Replicate_Ignore_DB:
Replicate_Do_Table:
Replicate_Ignore_Table:
Replicate_Wild_Do_Table:
Replicate_Wild_Ignore_Table:
Last_Errno: 0
Last_Error:
Skip_Counter: 0
Exec_Master_Log_Pos: 107
Relay_Log_Space: 556
Until_Condition: None
Until_Log_File:
Until_Log_Pos: 0
Master_SSL_Allowed: No
Master_SSL_CA_File:
Master_SSL_CA_Path:
Master_SSL_Cert:
Master_SSL_Cipher:
Master_SSL_Key:
Seconds_Behind_Master: 0
Master_SSL_Verify_Server_Cert: No
Last_IO_Errno: 0
Last_IO_Error:
Last_SQL_Errno: 0
Last_SQL_Error:
Replicate_Ignore_Server_Ids:
Master_Server_Id: 1
1 row in set (0.00 sec)
在其他几台slave机器上也执行上面的命令

Heiße KI -Werkzeuge

Undresser.AI Undress
KI-gestützte App zum Erstellen realistischer Aktfotos

AI Clothes Remover
Online-KI-Tool zum Entfernen von Kleidung aus Fotos.

Undress AI Tool
Ausziehbilder kostenlos

Clothoff.io
KI-Kleiderentferner

AI Hentai Generator
Erstellen Sie kostenlos Ai Hentai.

Heißer Artikel

Heiße Werkzeuge

Notepad++7.3.1
Einfach zu bedienender und kostenloser Code-Editor

SublimeText3 chinesische Version
Chinesische Version, sehr einfach zu bedienen

Senden Sie Studio 13.0.1
Leistungsstarke integrierte PHP-Entwicklungsumgebung

Dreamweaver CS6
Visuelle Webentwicklungstools

SublimeText3 Mac-Version
Codebearbeitungssoftware auf Gottesniveau (SublimeText3)

Heiße Themen

PHP-Übung: Codebeispiel zur schnellen Implementierung der Fibonacci-Folge Die Fibonacci-Folge ist eine sehr interessante und häufig vorkommende Folge in der Mathematik. Sie ist wie folgt definiert: Die erste und zweite Zahl sind 0 und 1, und ab der dritten Zahl beginnt jede Zahl ist die Summe der beiden vorherigen Zahlen. Die ersten Zahlen in der Fibonacci-Folge sind 0,1,1,2,3,5,8,13,21 usw. In PHP können wir die Fibonacci-Folge durch Rekursion und Iteration generieren. Im Folgenden zeigen wir diese beiden

Szenariobeschreibung für die vollständige Evakuierung von Knoten aus ProxmoxVE und den erneuten Beitritt zum Cluster. Wenn ein Knoten im ProxmoxVE-Cluster beschädigt ist und nicht schnell repariert werden kann, muss der fehlerhafte Knoten sauber aus dem Cluster entfernt und die verbleibenden Informationen bereinigt werden. Andernfalls können neue Knoten, die die vom fehlerhaften Knoten verwendete IP-Adresse verwenden, dem Cluster nicht normal beitreten, nachdem der fehlerhafte Knoten, der sich vom Cluster getrennt hat, repariert wurde, obwohl dies nichts mit dem Cluster zu tun hat Sie können nicht auf die Webverwaltung dieses einzelnen Knotens zugreifen. Im Hintergrund werden Informationen zu anderen Knoten im ursprünglichen ProxmoxVE-Cluster angezeigt, was sehr ärgerlich ist. Entfernen Sie Knoten aus dem Cluster. Wenn es sich bei ProxmoxVE um einen hyperkonvergenten Ceph-Cluster handelt, müssen Sie sich bei jedem Knoten im Cluster (außer dem Knoten, den Sie löschen möchten) auf dem Hostsystem Debian anmelden und den Befehl ausführen

Optimierungsmethode der Datenbank in einer PHP-Umgebung mit hoher Parallelität Mit der rasanten Entwicklung des Internets müssen sich immer mehr Websites und Anwendungen hohen Herausforderungen der Parallelität stellen. In diesem Fall wird die Optimierung der Datenbankleistung besonders wichtig, insbesondere für Systeme, die PHP als Backend-Entwicklungssprache verwenden. In diesem Artikel werden einige Datenbankoptimierungsmethoden in einer PHP-Umgebung mit hoher Parallelität vorgestellt und entsprechende Codebeispiele gegeben. Verwenden von Verbindungspooling In einer Umgebung mit hoher Parallelität kann das häufige Erstellen und Zerstören von Datenbankverbindungen zu Leistungsengpässen führen. Daher kann die Verwendung von Verbindungspooling erfolgen

Dieser Artikel vermittelt Ihnen relevantes Wissen über domänenübergreifende Uniapp-Programme und stellt Fragen im Zusammenhang mit der Untervergabe von Uniapp- und Miniprogrammen vor. Jedes Miniprogramm, das Untervergabe verwendet, muss ein Hauptpaket enthalten. Im sogenannten Hauptpaket werden die Standard-Startseite/TabBar-Seite sowie einige öffentliche Ressourcen/JS-Skripte platziert, die alle Unterpakete verwenden müssen, während die Unterpakete hoffentlich entsprechend der Konfiguration des Entwicklers unterteilt sind es wird für alle hilfreich sein.

Die Datenexportfunktion ist eine sehr häufige Anforderung in der tatsächlichen Entwicklung, insbesondere in Szenarien wie Back-End-Managementsystemen oder dem Export von Datenberichten. In diesem Artikel wird die Golang-Sprache als Beispiel verwendet, um die Implementierungsfähigkeiten der Datenexportfunktion zu teilen und spezifische Codebeispiele zu geben. 1. Vorbereitung der Umgebung Bevor Sie beginnen, stellen Sie sicher, dass Sie die Golang-Umgebung installiert haben und mit der grundlegenden Syntax und Funktionsweise von Golang vertraut sind. Darüber hinaus müssen Sie zur Implementierung der Datenexportfunktion möglicherweise eine Bibliothek eines Drittanbieters verwenden, z. B. github.com/360EntSec

MySQL-Tabellenentwurfspraxis: Erstellen Sie eine E-Commerce-Bestelltabelle und eine Produktbewertungstabelle. In der Datenbank der E-Commerce-Plattform sind die Bestelltabelle und die Produktbewertungstabelle zwei sehr wichtige Tabellen. In diesem Artikel wird erläutert, wie Sie MySQL zum Entwerfen und Erstellen dieser beiden Tabellen verwenden, und es werden Codebeispiele aufgeführt. 1. Entwurf und Erstellung der Bestelltabelle Die Bestelltabelle dient zum Speichern der Kaufinformationen des Benutzers, einschließlich Bestellnummer, Benutzer-ID, Produkt-ID, Kaufmenge, Bestellstatus und anderer Felder. Zuerst müssen wir mit CREATET eine Tabelle mit dem Namen „order“ erstellen

Zu den gängigen Clustern in PHP gehören LAMP-Cluster, Nginx-Cluster, Memcached-Cluster, Redis-Cluster und Hadoop-Cluster. Detaillierte Einführung: 1. LAMP-Cluster. LAMP bezieht sich auf eine Kombination aus Linux, Apache, MySQL und PHP. In einem LAMP-Cluster wird die gleiche Anwendung ausgeführt und über einen Lastausgleichsdienst ausgeglichen 2. Nginx-Cluster, Nginx ist ein Hochleistungs-Webserver und so weiter.

Java-Entwicklungspraxis: Integration des Qiniu-Cloud-Speicherdienstes zur Implementierung des Datei-Uploads Einführung Mit der Entwicklung von Cloud Computing und Cloud-Speicher müssen immer mehr Anwendungen Dateien zur Speicherung und Verwaltung in die Cloud hochladen. Die Vorteile von Cloud-Speicherdiensten sind hohe Zuverlässigkeit, Skalierbarkeit und Flexibilität. In diesem Artikel wird erläutert, wie Sie die Java-Sprachentwicklung verwenden, den Cloud-Speicherdienst Qiniu integrieren und die Funktion zum Hochladen von Dateien implementieren. Über Qiniu Cloud Qiniu Cloud ist ein führender Anbieter von Cloud-Speicherdiensten in China, der umfassende Cloud-Speicher- und Inhaltsverteilungsdienste anbietet. Benutzer können Qiniu Yunti verwenden
