ClusterControl Module for Puppet_MySQL
July 7, 2014
By Severalnines
If you are automating your infrastructure using Puppet, then this blog is for you. We are glad to announce the availability of a Puppet module for ClusterControl. For those using Chef, we already publishedChef cookbooksfor Galera Cluster and ClusterControl some time back.
ClusterControl on Puppet Forge
The ClusterControl module initial release is available on Puppet Forge , installing the module is as easy as:
$ puppet module install severalnines-clustercontrol
If you haven’t change the default module path, this module will be installed under /etc/puppet/modules/clustercontrol on your Puppet master host. ClusterControl supports following database clusters:
- Galera Cluster
- MySQL Galera Cluster by Codership
- Percona XtraDB Cluster by Percona
- MariaDB Galera Cluster by MariaDB
- MySQL Cluster
- MySQL Replication
- MongoDB or TokuMX Clusters
- Sharded Cluster
- Replica Set
Severalnines Package Repository
This module makes use of the Severalnines repository for yum and apt packages. This repository hosts the latest stable release of ClusterControl and all of its components.
ClusterControl and all of its components requires post-installation procedures, like setting up MySQL, granting users, setting up Apache and etc. This module will automate most of these.
If you lookup the Severalnines package repository, you will find the following packages:
- clustercontrol - Severalnines ClusterControl Web Application. Frontend for clustercontrol-controller. Previously known as cc-ui.
- clustercontrol-cmonapi - Severalnines ClusterControl REST API. Previously known as cc-cmonapi.
- cmon-agent - Agent for ClusterControl. Manage and monitor MySQL, MySQL Cluster and Galera Cluster for MySQL
- cmon-controller - ClusterControl Controller. Manage and monitor MySQL, MySQL Cluster and Galera Cluster for MySQL
The Severalnines Repository installation instructions are available at http://repo.severalnines.com .
Installing ClusterControl with Puppet
We’ll now show you how to deploy ClusterControl on top of an existing database cluster using the ClusterControl Puppet module.
This module requires the following criteria to be met:
- The node for ClusterControl must be a clean/dedicated host.
- ClusterControl node must be running on 64bit OS platform and together with the same OS distribution with the monitored DB hosts. Mixing Debian with Ubuntu and CentOS with Red Hat is acceptable.
- ClusterControl node must have an internet connection during the deployment. After the deployment, ClusterControl does not need internet access.
- Make sure your database cluster is up and running before doing this deployment.
**Please review the module’s requirement available at Puppet Forge for more details.
Now we should have the Puppet module installed. The first thing that we need to do is to generate a SSH key. ClusterControl requires a proper configuration of passwordless SSH using SSH key. It also needs an API token. The following are two pre-deployment steps that you need to complete:
1. Generate a SSH key:
$ bash /etc/puppets/modules/clustercontrol/files/s9s_helper.sh --generate-key
** This step is compulsory. The above command will generate a RSA key (if not exists) to be used by the module and the key must exist in the Puppet master module's directory before the deployment begins.
2. Generate an API token:
$ bash /etc/puppets/modules/clustercontrol/files/s9s_helper.sh --generate-tokenb7e515255db703c659677a66c4a17952515dbaf5
** Copy the generated token and specify in the node definition under api_token .
Both steps described above need to be executed once (unless you intentionally want to regenerate them all). Now, we can configure the database nodes to be managed, as per example architectures below:
As illustrated in the above figure, we have a three-node Percona XtraDB Cluster running on CentOS 6.5 64bit. The SSH user is root and the MySQL datadir is using the default /var/lib/mysql .
Therefore, the node definition in Puppet master would be as simple as:
# ClusterControl hostnode "clustercontrol.local" { class { 'clustercontrol': is_controller => true, email_address => 'admin@localhost.xyz', mysql_server_addresses => '192.168.1.11,192.168.1.12,192.168.1.13', api_token => 'b7e515255db703c659677a66c4a17952515dbaf5' }}# Monitored DB hostsnode "galera1.local", "galera2.local", "galera3.local" { class {'clustercontrol': is_controller => false, mysql_root_password => 'r00tpassword', clustercontrol_host => '192.168.1.10' }}
Once done, you can either instruct the agent to pull the configuration from the Puppet master and apply it immediately:
$ puppet agent -t
Or, wait for the Puppet agent service to apply the catalog automatically (depending on the runinterval value, default is 30 minutes). Once completed, open the ClusterControl UI page at http://[ClusterControl IP address]/clustercontrol and login using the specified email address with default password ‘admin’.
You should see something similar to below:
Take note that this module will install the RSA key at $HOME/.ssh/id_rsa_s9s . Details of this in the Puppet Forge readme page.
Example Node Definition for Other Clusters
MySQL Cluster
For MySQL Cluster, extra options are needed to allow ClusterControl to manage your management and data nodes. You may also need to add NDB data directory (e.g /mysql/data ) into the datadir list so ClusterControl knows which partition is to be monitored. In the following example, /var/lib/mysql is mysql API datadir and /mysql/data is NDB datadir.
The following figure shows our MySQL Cluster architecture running on Debian 7 (Wheezy) 64bit:
The node definition would be:
# ClusterControl hostnode "clustercontrol.local" { class { 'clustercontrol': is_controller => true, email_address => 'admin@localhost.xyz', cluster_type => 'mysqlcluster', mysql_server_addresses => '192.168.1.11,192.168.1.12', mgmnode_addresses => '192.168.1.11,192.168.1.12', datanode_addresses => '192.168.1.13,192.168.1.14', datadir => '/var/lib/mysql,/mysql/data', api_token => 'b7e515255db703c659677a66c4a17952515dbaf5' }}# Monitored DB hostsnode "mysql1.local", "mysql2.local", "data1.local", "data2.local" { class {'clustercontrol': is_controller => false, mysql_root_password => 'dpassword', clustercontrol_host => '192.168.1.10' }}
MySQL Replication
MySQL Replication node definition will be similar to Galera cluster’s. In following example, we have a three-node MySQL Replication running on RHEL 6.5 64bit on Amazon AWS. The SSH user is ec2-user with passwordless sudo:
The node definition would be:
# ClusterControl hostnode "clustercontrol.local" { class { 'clustercontrol': is_controller => true, email_address => 'admin@localhost.xyz', ssh_user => 'ec2-user', cluster_type => 'replication', mysql_server_addresses => 'mysql-master.aws,mysql-slave1.aws,mysql-slave2.aws', api_token => 'b7e515255db703c659677a66c4a17952515dbaf5' }}# Monitored DB hostsnode "mysql-master.aws", "mysql-slave1.aws", "mysql-slave2.aws" { class {'clustercontrol': is_controller => false, mysql_root_password => 'dpassword', clustercontrol_host => 'clustercontrol.aws' }}
MongoDB/TokuMX Replica Set
The MongoDB Replica Set runs on Ubuntu 12.04 LTS 64bit with sudo user ubuntu and password 'mySuDOpassXXX'. There is also an arbiter node running on mongo3.local . In MongoDB, the module does not require mysql_cmon_password and mysql_root_password which specifically for MySQL granting.
The node definition would be:
# Monitored mongoDB hostsnode 'mongo1.local', 'mongo2.local', 'mongo3.local' { class {'clustercontrol' : is_controller => false, ssh_user => 'ubuntu', clustercontrol_host => '192.168.1.40' }}# ClusterControl hostnode 'clustercontrol.local' { class {'clustercontrol' : is_controller => true, ssh_user => 'ubuntu', sudo_password => 'mySuDOpassXXX', email_address => 'admin@localhost.xyz', cluster_type=> 'mongodb', mongodb_server_addresses => 'mongo1.local:27017,mongo2.local:27017', mongoarbiter_server_addresses => 'mongo3.local:30000', datadir => '/var/lib/mongodb', api_token => 'b7e515255db703c659677a66c4a17952515dbaf5' }}
MongoDB/TokuMX Sharded Cluster
MongoDB Sharded Cluster needs to have mongocfg_server_addresses and mongos_server_addresses options specified. The mongodb_server_addresses value should be to the list of shard servers in the cluster. In the below example, we have a three-node MongoDB Sharded Cluster running on CentOS 5.6 64bit with 2 mongos nodes, 3 shard servers and 3 config servers:
The node definition would be:
# Monitored mongoDB hostsnode 'mongo1.local', 'mongo2.local', 'mongo3.local' { class {'clustercontrol' : is_controller => false, clustercontrol_host => '192.168.1.40' }}# ClusterControl hostnode 'clustercontrol.local' { class {'clustercontrol' : is_controller => true, email_address => 'admin@localhost.xyz', cluster_type=> 'mongodb', mongodb_server_addresses => '192.168.1.41:27018,192.168.1.42:27018,192.168.1.43:27018', mongocfg_server_addresses => '192.168.1.41:27019,192.168.1.42:27019,192.168.1.43:27019', mongos_server_addresses => '192.168.1.41:27017,192.168.1.42:27017', datadir => '/var/lib/mongodb', api_token => 'b7e515255db703c659677a66c4a17952515dbaf5' }}
Please have a look at the documentation at the ClusterControl Puppet Forge page for more details. In our upcoming post, we are going to elaborate on how to deploy new database clusters with ClusterControl using existing modules available in Puppet Forge.

핫 AI 도구

Undresser.AI Undress
사실적인 누드 사진을 만들기 위한 AI 기반 앱

AI Clothes Remover
사진에서 옷을 제거하는 온라인 AI 도구입니다.

Undress AI Tool
무료로 이미지를 벗다

Clothoff.io
AI 옷 제거제

Video Face Swap
완전히 무료인 AI 얼굴 교환 도구를 사용하여 모든 비디오의 얼굴을 쉽게 바꾸세요!

인기 기사

뜨거운 도구

메모장++7.3.1
사용하기 쉬운 무료 코드 편집기

SublimeText3 중국어 버전
중국어 버전, 사용하기 매우 쉽습니다.

스튜디오 13.0.1 보내기
강력한 PHP 통합 개발 환경

드림위버 CS6
시각적 웹 개발 도구

SublimeText3 Mac 버전
신 수준의 코드 편집 소프트웨어(SublimeText3)

뜨거운 주제











InnoDB의 전체 텍스트 검색 기능은 매우 강력하여 데이터베이스 쿼리 효율성과 대량의 텍스트 데이터를 처리 할 수있는 능력을 크게 향상시킬 수 있습니다. 1) InnoDB는 기본 및 고급 검색 쿼리를 지원하는 역 색인화를 통해 전체 텍스트 검색을 구현합니다. 2) 매치 및 키워드를 사용하여 검색, 부울 모드 및 문구 검색을 지원합니다. 3) 최적화 방법에는 워드 세분화 기술 사용, 인덱스의 주기적 재건 및 캐시 크기 조정, 성능과 정확도를 향상시키는 것이 포함됩니다.

이 기사는 MySQL의 Alter Table 문을 사용하여 열 추가/드롭 테이블/열 변경 및 열 데이터 유형 변경을 포함하여 테이블을 수정하는 것에 대해 설명합니다.

전체 테이블 스캔은 MySQL에서 인덱스를 사용하는 것보다 빠를 수 있습니다. 특정 사례는 다음과 같습니다. 1) 데이터 볼륨은 작습니다. 2) 쿼리가 많은 양의 데이터를 반환 할 때; 3) 인덱스 열이 매우 선택적이지 않은 경우; 4) 복잡한 쿼리시. 쿼리 계획을 분석하고 인덱스 최적화, 과도한 인덱스를 피하고 정기적으로 테이블을 유지 관리하면 실제 응용 프로그램에서 최상의 선택을 할 수 있습니다.

예, MySQL은 Windows 7에 설치 될 수 있으며 Microsoft는 Windows 7 지원을 중단했지만 MySQL은 여전히 호환됩니다. 그러나 설치 프로세스 중에 다음 지점이 표시되어야합니다. Windows 용 MySQL 설치 프로그램을 다운로드하십시오. MySQL의 적절한 버전 (커뮤니티 또는 기업)을 선택하십시오. 설치 프로세스 중에 적절한 설치 디렉토리 및 문자를 선택하십시오. 루트 사용자 비밀번호를 설정하고 올바르게 유지하십시오. 테스트를 위해 데이터베이스에 연결하십시오. Windows 7의 호환성 및 보안 문제에 주목하고 지원되는 운영 체제로 업그레이드하는 것이 좋습니다.

클러스터 인덱스와 비 클러스터 인덱스의 차이점은 1. 클러스터 된 인덱스는 인덱스 구조에 데이터 행을 저장하며, 이는 기본 키 및 범위별로 쿼리에 적합합니다. 2. 클러스터되지 않은 인덱스는 인덱스 키 값과 포인터를 데이터 행으로 저장하며 비 예산 키 열 쿼리에 적합합니다.

기사는 MySQL Workbench 및 Phpmyadmin과 같은 인기있는 MySQL GUI 도구에 대해 논의하여 초보자 및 고급 사용자를위한 기능과 적합성을 비교합니다. [159 자].

기사는 MySQL에서 파티셔닝, 샤딩, 인덱싱 및 쿼리 최적화를 포함하여 대규모 데이터 세트를 처리하기위한 전략에 대해 설명합니다.

이 기사에서는 Drop Table 문을 사용하여 MySQL에서 테이블을 떨어 뜨리는 것에 대해 설명하여 예방 조치와 위험을 강조합니다. 백업 없이는 행동이 돌이킬 수 없으며 복구 방법 및 잠재적 생산 환경 위험을 상세하게합니다.
