4台机器
192.168.1.10 管理节点
192.168.1.11 存储节点 SQL节点
192.168.1.12 存储节点、SQL节点
192.168.1.13 SQL节点
操作系统:CentOS 6 .5(64位)
Mysql版本:MySQL-Cluster-gpl-7.3.5-1.el6.x86_64.rpm-bundle.tar
mysql-cluster-gpl-7.3.5-linux-glibc2.5-x86_64.tar.gz(需要其中的两个文件)
1. 解压MySQL-Cluster-gpl-7.3.5-1.el6.x86_64.rpm-bundle.tar:
将解压后的MySQL-Cluster-server-gpl-7.3.5-1.el6.x86_64.rpm分发至每台机器;
将解压后的MySQL-Cluster-client-gpl-7.3.5-1.el6.x86_64.rpm分发至SQL节点;
2. 清理旧的Mysql安装:
yum -y remove mysql
rpm -qa | grep mysql*
对于找到的1个剩余mysql包,请按照如下的命令格式予以删除:
rpm -e --nodeps mysql-libs-5.1.61-4.el6.x86_64
3. 安装依赖库:
yum -y install libaio
创建文件夹(分如下3个类来创建对应的文件夹)
存储节点:mkdir /var/lib/mysql/data
管理节点:mkdir /var/lib/mysql-cluster SQL节点:可不用 文件夹授权
进程DIR: mkdir /var/run/mysqld
使用如下的命令来变更权限保证可写入:
chmod -R 1777 /var/lib/mysql
chmod -R 1777 /var/run/mysqld
chmod -R 1777 /var/lib/mysql-cluster
1. 在每台机器上安装MySQL-Cluster-server-gpl-7.3.5-1.el6.x86_64.rpm
执行命令:rpm -Uvh MySQL-Cluster-server-gpl-7.3.5-1.el6.x86_64.rpm
安装后会提示默认密码存放在/root/.mysql_secret文件中(也有时候不提示)
2. 在SQL节点上安装MySQL-Cluster-client-gpl-7.3.5-1.el6.x86_64.rpm
执行命令:rpm -Uvh MySQL-Cluster-client-gpl-7.3.5-1.el6.x86_64.rpm
mysql-cluster-gpl-7.3.5-linux-glibc2.5-x86_64/bin目录找到ndb_mgm和ndb_mgmd,将其复制到管理节点的/usr/local/bin,
然后使这两个文件成为可执行的:
cd /usr/local/bin
chmod +x ndb_mgm*
cd /var/lib/mysql-cluster
vi config.ini
内容如下:
[ndbd default]
NoOfReplicas=2
DataMemory=80M
IndexMemory=20M
[ndb_mgmd]
# Management process options:
hostname=192.168.1.10 # Hostname or IP address of MGM node
datadir=/var/lib/mysql-cluster # Directory for MGM node log files
[ndbd]
HostName=192.168.1.11
DataDir=/var/lib/mysql/data
[ndbd]
HostName=192.168.1.12
DataDir=/var/lib/mysql/data
[mysqld]
HostName=192.168.1.11
[mysqld]
HostName=192.168.1.12
[mysqld]
HostName=192.168.1.13
在所有存储节点和SQL节点上建立配置文件:
vi /etc/my.cnf
内容如下:
[client]
socket=/var/lib/mysql/mysql.sock
[mysqld]
max_connections=100
datadir=/var/lib/mysql
socket=/var/lib/mysql/mysql.sock
ndbcluster
ndb-connectstring=192.168.1.10
[mysqld_safe]
log-error=/var/log/mysqld.log
pid-file=/var/run/mysqld/mysqld.pid
[mysql_cluster]
ndb-connectstring=192.168.1.10
~
注意顺序。
(需要在管理节点执行,这会创建一个目录/usr/local/mysql/mysql-cluster,没有的话可能报错,就自己手动创建一个
mkdir /usr/local/mysql
mkdir /usr/local/mysql/mysql-cluster)
2. 启动存储节点:ndbd --initial
(需要在存储节点执行) 初次启动时需要加--initial参数,以后只需要执行ndbd即可;
3. 启动SQL节点:nohup mysqld_safe --explicit_defaults_for_timestamp &
(需要在SQL节点执行)
启动之前,需要先检查其3306端口是否被占用,sudo netstat -anp | grep 3306 查看3306端口是否被占用
如果被占用需要kill掉,然后再启动
在管理节点中执行ndb_mgm 进入集群管理console,使用show命令列出所有节点信息:
可以看到sql节点没有启动成功,解决方法:
cd /var/lib/mysql
ls
rm -f ib* (删除掉lb开头的文件)
用命令:sudo netstat -anp | grep 3306 查看3306端口是否被占用
如果被占用kill杀掉
然后重新启动执行上面操作看到
1) ndb_mgmd管理命令:ndb_mgm
执行之后就是管理控制台了,里面可以继续输入命令。
查看集群里面的全部节点的状态:show
2) 停止集群服务器的命令:ndb_mgm -e shutdown
如果集群配置有更新了:rm /usr/mysql-cluster/ndb_1_config.bin.1
3) 停止SQL节点的命令:mysqladmin -uroot shutdown
4) SQL Node上连接MySQL:mysql -u root –pPASSWORD
执行之后就是MySQL控制台了,里面可以继续输入命令。
在每个SQL节点中执行:
mysqladmin -u root -pOLDPASSWORD password 'newpassword'
其中OLDPASSWORD为/root/.mysql_secret中生成的:
cat /root/.mysql_secret (查看随机生成的密码)
# The random password set for the root user at Tue Apr 15 11:08:59 2014 (local time): Nnqn0u1MRcpXkMue
mysql -u root –ppassword
mysql> create database transenly;
Query OK, 1 row affected (0.06 sec)
mysql> use transenly;
Database changed
mysql> CREATE TABLE ctest2 (i INT) ENGINE=NDB;(创建表的时候必须加上后面的ENGINE=NDB,不然数据同步不成功)
Query OK, 0 rows affected (0.38 sec)
mysql -u root –ppassword
可以看到数据库和数据表都有了,说明数据同步成功
将sql文件放入到本地的一个地方,如/var/lib/mysql/data/
其中需要将sql文件中 ENGINE= InnoDB修改为ENGINE-NDB,保证数据同步的
在其中随意一个sql节点登录
mysql -u root –ppassword
use transenly;(使用的数据库,前提是先创建好数据库)
source /var/lib/mysql/data/transenly.sql
出现Query OK, 0 rows affected (0.00 sec)说明导入成功
然后show tables;查看三个sql节点是否都创建成功
需要修改权限,是服务器可以随便访问
mysql> grant all privileges on *.* to root@'%' identified by 'mysql' with grant option;
//赋予任何主机访问数据的权限
3、mysql>FLUSH PRIVILEGES //修改生效
4、mysql>EXIT //退出MySQL服务器