首頁 資料庫 mysql教程 揭秘企业级web负载均衡完美架构

揭秘企业级web负载均衡完美架构

Jun 07, 2016 pm 03:05 PM
web 企業級 完美 揭秘 架構 負載

【51CTO.com独家特稿】相信很多朋友对 企业 级的 负载 均衡 高可用实例非常感兴趣,此篇 文章 根据成熟的线上环境而写,旨在帮助大家迅速 架构 一个 企业 级的 负载 均衡 高可用的web环境。 此系统 架构 仅映射内网VIP的80及443端口于外网的Juniper防火墙下

 【51CTO.com独家特稿】相信很多朋友对企业级的负载均衡高可用实例非常感兴趣,此篇文章根据成熟的线上环境而写,旨在帮助大家迅速架构一个企业级的负载均衡高可用的web环境。

此系统架构仅映射内网VIP的80及443端口于外网的Juniper防火墙下,其它端口均关闭,内网所有机器均关闭iptables及ipfw防火墙;外网DNS指向即通过Juniper映射出来的外网地址,而此映射的地址对映的其实是内网VIP地址。这里说下端口的问题,有的朋友可能会很疑惑,这样映射端口行不?通过项目实践得知,这样完全是可行的,php-cgi需要的9000端口及MySQL的3306端口均可走内网,完全不影响业务系统的运行。

另外,我维护的电子商务网站并发大约在1000左右,此时,Nginx+Apache集群运行得非常稳定,尤其是apache,并没有想象中那般弱;其实,在内存足够(>=8G)的情况,测试时不连数据库的话,单台apache+php5能顶得住6000并发,而且相当稳定。在网站升级架构方面,我不赞成全面淘汰生级,锦上添花式的升级会更好。

第一部分:Nginx+Keepalived的说明及环境说明

喜欢看我博客或文章的朋友都知道,我一直主力推崇Nginx+Keepalived作web的负载均衡高可用架构,并积极将其用于项目方案中;Nginx负载均衡作服务器遇到的故障一般有①服务器网线松动等网络故障;②服务器硬件故障从而crash;③nginx服务死掉;遇到前二者情况,keeaplived是能起到HA的作用的;然而遇到③种情况就没有办法了,但可以通过shell监控解决这问题,从而实现真正意义上的负载均衡高可用。此篇的最新更新时间为2010年6月25号,下面将其安装步骤详细说明下:

环境:

<ol class="dp-xml">
<li class="alt">centos5.3(64位)、nginx-0.7.51、keepalived-1.1.15   </li>
<li>主nginx<strong>负载</strong><strong>均衡</strong>器:192.168.0.154  </li>
<li class="alt">辅nginx<strong>负载</strong><strong>均衡</strong>器:192.168.9.155  </li>
<li>vip:192.168.0.188 </li>
</ol>
登入後複製

 

第二部分:分别安装Nginx负载均衡器及相关配置脚本

先安装Nginx负载均衡器,nginx负载的配置就用一般的模板来配置了

<ol class="dp-xml">
<li class="alt">#添加运行nginx的用户和组www  </li>
<li>groupadd www   </li>
<li class="alt">useradd -g www www   </li>
<li>wget ftp://ftp.csx.cam.ac.uk/pub/software/programming/pcre/pcre-7.8.tar.gz  </li>
<li class="alt">tar zxvf pcre-7.8.tar.gz  </li>
<li>cd pcre-7.8/  </li>
<li class="alt">./configure  </li>
<li>make && make install  </li>
<li class="alt">wget http://sysoev.ru/nginx/nginx-0.7.51.tar.gz  </li>
<li>tar zxvf nginx-0.7.51.tar.gz  </li>
<li class="alt">cd nginx-0.7.51/  </li>
<li>./configure <span class="attribute">--user</span>=<span class="attribute-value">www</span> <span class="attribute">--group</span>=<span class="attribute-value">www</span> <span class="attribute">--prefix</span>=/usr/local/webserver/nginx --with-http_stub_status_module --with-http_ssl_module  </li>
<li class="alt">make && make install </li>
</ol>
登入後複製

配置nginx负载均衡器的配置文件vim /usr/local/nginx/conf/nginx.conf,此篇文章仅仅只是我的某项目的配置文档,纯80转发;如果对nginx配置有https要求的可参考张宴的相关文章

<ol class="dp-xml">
<li class="alt">user www www;  </li>
<li>worker_processes 8;  </li>
<li class="alt"> </li>
<li>pid /usr/local/nginx/logs/nginx.pid;  </li>
<li class="alt">worker_rlimit_nofile 65535;  </li>
<li> </li>
<li class="alt">events  </li>
<li>{  </li>
<li class="alt">use epoll;  </li>
<li>worker_connections 65535;  </li>
<li class="alt">}  </li>
<li>http{  </li>
<li class="alt">include       mime.types;  </li>
<li>default_type application/octet-stream;  </li>
<li class="alt">server_names_hash_bucket_size 128;  </li>
<li>client_header_buffer_size 32k;  </li>
<li class="alt">large_client_header_buffers 4 32k;  </li>
<li>client_max_body_size 8m;  </li>
<li class="alt">sendfile on;  </li>
<li>tcp_nopush     on;  </li>
<li class="alt">keepalive_timeout 60;  </li>
<li>tcp_nodelay on;  </li>
<li class="alt">fastcgi_connect_timeout 300;  </li>
<li>fastcgi_send_timeout 300;  </li>
<li class="alt">fastcgi_read_timeout 300;  </li>
<li>fastcgi_buffer_size 64k;  </li>
<li class="alt">fastcgi_buffers 4 64k;  </li>
<li>fastcgi_busy_buffers_size 128k;  </li>
<li class="alt">fastcgi_temp_file_write_size 128k;  </li>
<li>gzip on;  </li>
<li class="alt">gzip_min_length 1k;  </li>
<li>gzip_buffers     4 16k;  </li>
<li class="alt">gzip_http_version 1.0;  </li>
<li>gzip_comp_level 2;  </li>
<li class="alt">gzip_types       text/plain application/x-javascript text/css application/xml;  </li>
<li>gzip_vary on;  </li>
<li class="alt"> </li>
<li>upstream backend  </li>
<li class="alt">{  </li>
<li>server 192.168.1.102:80;  </li>
<li class="alt">server 192.168.1.103:80;  </li>
<li>server 192.168.1.105:80;  </li>
<li class="alt">}  </li>
<li>server {  </li>
<li class="alt">listen 80;  </li>
<li>server_name www.yuhongchun027.com;  </li>
<li class="alt">location / {  </li>
<li>root /var/www ;  </li>
<li class="alt">index index.jsp index.htm index.html;  </li>
<li>proxy_redirect off;  </li>
<li class="alt">proxy_set_header Host $host;  </li>
<li>proxy_set_header X-Real-IP $remote_addr;  </li>
<li class="alt">proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for;  </li>
<li>proxy_pass http://backend;  </li>
<li class="alt">}  </li>
<li> </li>
<li class="alt">location /nginx {  </li>
<li>access_log on;  </li>
<li class="alt">auth_basic "NginxStatus";  </li>
<li>auth_basic_user_file /usr/local/nginx/htpasswd;  </li>
<li class="alt">}  </li>
<li> </li>
<li class="alt">log_format access '$remote_addr - $remote_user [$time_local] "$request" '  </li>
<li>'$status $body_bytes_sent "$http_referer" '  </li>
<li class="alt">'"$http_user_agent" $http_x_forwarded_for';  </li>
<li>access_log /var/log/access.log access;  </li>
<li class="alt"> </li>
<li>}  </li>
<li class="alt">} </li>
</ol>
登入後複製

小节:

第一部分和第二部分讲的是如何通过安装Nginx来达到负载均衡后端web集群的过程,Nginx能实现自动切换后端有故障的web服务器;但Nginx负载均衡器出了问题怎么办呢,它们之间是如何实现无故障转移的呢?

第三部分:安装Keepalived,让其分别作web及Nginx的HA

安装keepalived,并将其做成服务模式,方便以后调试。

<ol class="dp-xml">
<li class="alt">wget http://www.keepalived.org/software/keepalived-1.1.15.tar.gz  </li>
<li>#tar zxvf keepalived-1.1.15.tar.gz  </li>
<li class="alt">#cd keepalived-1.1.15  </li>
<li>#./configure <span class="attribute">--prefix</span>=/usr/local/keepalived  </li>
<li class="alt">#make   </li>
<li>#make install  </li>
<li class="alt">#cp /usr/local/keepalived/sbin/keepalived /usr/sbin/  </li>
<li>#cp /usr/local/keepalived/etc/sysconfig/keepalived /etc/sysconfig/  </li>
<li class="alt">#cp /usr/local/keepalived/etc/rc.d/init.d/keepalived /etc/init.d/  </li>
<li>#mkdir /etc/keepalived  </li>
<li class="alt">#cd /etc/keepalived/  </li>
<li> </li>
<li class="alt">vim keepalived.conf  </li>
<li>! Configuration File for keepalived  </li>
<li class="alt">global_defs {  </li>
<li>   notification_email {  </li>
<li class="alt">   yuhongchun027@163.com  </li>
<li>        }  </li>
<li class="alt">   notification_email_from keepalived@chtopnet.com  </li>
<li>   smtp_server 127.0.0.1  </li>
<li class="alt">   smtp_connect_timeout 30  </li>
<li>   router_id LVS_DEVEL  </li>
<li class="alt">}  </li>
<li>vrrp_instance VI_1 {  </li>
<li class="alt">    state MASTER  </li>
<li>    interface eth0  </li>
<li class="alt">    virtual_router_id 51  </li>
<li>    mcast_src_ip 192.168.0.154    <span class="tag">==主nginx的IP地址  </span>
</li>
<li class="alt">    priority 100  </li>
<li>    advert_int 1  </li>
<li class="alt">    authentication {  </li>
<li>        auth_type PASS  </li>
<li class="alt">        auth_pass chtopnet  </li>
<li>    }  </li>
<li class="alt">    virtual_ipaddress {  </li>
<li>        192.168.0.188                      <span class="tag">==vip地址  </span>
</li>
<li class="alt">    }  </li>
<li>}  </li>
<li class="alt">#service keepalived start </li>
</ol>
登入後複製

我们来看一下日志:

<ol class="dp-xml">
<li class="alt">[root@ltos ~]# tail /var/log/messages  </li>
<li>Oct 6 03:25:03 ltos avahi-daemon[2306]: Registering new address record for 192.168.0.188 on eth0.  </li>
<li class="alt">Oct 6 03:25:03 ltos avahi-daemon[2306]: Registering new address record for 192.168.0.154 on eth0.  </li>
<li>Oct 6 03:25:03 ltos avahi-daemon[2306]: Registering HINFO record with values 'I686'/'LINUX'.  </li>
<li class="alt">Oct 6 03:25:23 ltos avahi-daemon[2306]: Withdrawing address record for fe80::20c:29ff:feb9:eeab on eth0.  </li>
<li>Oct 6 03:25:23 ltos avahi-daemon[2306]: Withdrawing address record for 192.168.0.154 on eth0.  </li>
<li class="alt">Oct 6 03:25:23 ltos avahi-daemon[2306]: Host name conflict, retrying with <span class="tag"><span class="tag-name">ltos-31</span><span class="tag">></span> </span>
</li>
</ol>
登入後複製

很显然vrrp已经启动,我们还可以通过命令来检查

<ol class="dp-xml">
<li class="alt">[root@ltos html]# ip addr  </li>
<li>1: lo: <span class="tag"><span class="tag-name">LOOPBACK</span>,UP,LOWER_UP<span class="tag">></span> mtu 16436 qdisc noqueue   </span>
</li>
<li class="alt">    link/loopback 00:00:00:00:00:00 brd 00:00:00:00:00:00  </li>
<li>    inet 127.0.0.1/8 scope host lo  </li>
<li class="alt">    inet6 ::1/128 scope host   </li>
<li>       valid_lft forever preferred_lft forever  </li>
<li class="alt">2: eth0: <span class="tag"><span class="tag-name">BROADCAST</span>,MULTICAST,UP,LOWER_UP<span class="tag">></span> mtu 1500 qdisc pfifo_fast qlen 1000  </span>
</li>
<li>    link/ether 00:0c:29:ba:9b:e7 brd ff:ff:ff:ff:ff:ff  </li>
<li class="alt">    inet 192.168.0.154/24 brd 192.168.0.255 scope global eth0  </li>
<li>    inet 192.168.0.188/32 scope global eth0  </li>
<li class="alt">    inet6 fe80::20c:29ff:feba:9be7/64 scope link   </li>
<li>       valid_lft forever preferred_lft forever  </li>
<li class="alt">3: sit0: <span class="tag"><span class="tag-name">NOARP</span><span class="tag">></span> mtu 1480 qdisc noop   </span>
</li>
<li>    link/sit 0.0.0.0 brd 0.0.0.0 </li>
</ol>
登入後複製

说明vip已经启动,这样主服务器就配置好了,辅机的配置大致一样,除了配置文件有少部分的变化,下面贴出辅机的配置文件:

<ol class="dp-xml">
<li class="alt">! Configuration File for keepalived  </li>
<li>global_defs {  </li>
<li class="alt">   notification_email {  </li>
<li>   yuhongchun027@163.com  </li>
<li class="alt">        }  </li>
<li>   notification_email_from keepalived@chtopnet.com  </li>
<li class="alt">   smtp_server 127.0.0.1  </li>
<li>   smtp_connect_timeout 30  </li>
<li class="alt">   router_id LVS_DEVEL  </li>
<li>}  </li>
<li class="alt">vrrp_instance VI_1 {  </li>
<li>    state BACKUP  </li>
<li class="alt">    interface eth0  </li>
<li>    virtual_router_id 51  </li>
<li class="alt">    mcast_src_ip 192.168.0.155              <span class="tag">==辅nginx的IP的地址  </span>
</li>
<li>    priority 100  </li>
<li class="alt">    advert_int 1  </li>
<li>    authentication {  </li>
<li class="alt">        auth_type PASS  </li>
<li>        auth_pass chtopnet  </li>
<li class="alt">    }  </li>
<li>    virtual_ipaddress {  </li>
<li class="alt">        192.168.0.188  </li>
<li>    }  </li>
<li class="alt">} </li>
</ol>
登入後複製

 

第四部分:针对Keepalived的不足,用Nginx_pid.sh来监控nginx进程,实现真正意义上的负载均衡高可用。

针对Nginx+Keepalived,编写nginx监控脚本nginx_pid.sh,此脚本思路其实也很简单,即放置在后台一直监控nginx进程;如进程消失,尝试重启nginx,如是失败则立即停掉本机的keepalived服务,让另一台负载均衡器接手,此脚本直接从生产环境下载:

<ol class="dp-xml">
<li class="alt">vim /root/nginx_pid.sh   </li>
<li>#!/bin/bash  </li>
<li class="alt">while  :  </li>
<li>do  </li>
<li class="alt"> <span class="attribute">nginxpid</span>=`ps -C nginx --no-header | wc -l`  </li>
<li> if [ $nginxpid -eq 0 ];then  </li>
<li class="alt">  /usr/local/nginx/sbin/nginx  </li>
<li>  sleep 5  </li>
<li>nginxpid=`ps -C nginx --no-header | wc -l`</li>
<li class="alt">   if [ $nginxpid -eq 0 ];then  </li>
<li>   /etc/init.d/keepalived stop  </li>
<li class="alt">   fi  </li>
<li> fi  </li>
<li class="alt"> sleep 5   </li>
<li>done </li>
</ol>
登入後複製

然后置于后台运行 sh /root/nginx_pid.sh &,这种写法是错误的,这样你用root用户logout后,此进程会消失;正确写法为nohup/bin/bash /root/nginx_pid.sh &,附带下注释:如果你正在运行一个进程,而且你觉得在退出帐户时该进程还不会结束,那么可以使用nohup命令。该命令可以在你退出root帐户之后继续运行相应的进程。nohup就是不挂起的意思( no hang up),哈哈,差点老马失蹄了。

后记:

我的线上环境网络非常复杂,这也是LVS+Keepalived失败的原因。目前此套架构在1000并发的电子商务网站非常稳定,带来的直接影响就是nginx_backup一直处于闲置状态。相对于张宴的双机轮询而言,我感觉他的可能更加完美,因为目前我的Nginx仅仅只做了负载均衡器,如果以后有机会我会尝试做负载均衡器/反向代理加速。

本網站聲明
本文內容由網友自願投稿,版權歸原作者所有。本站不承擔相應的法律責任。如發現涉嫌抄襲或侵權的內容,請聯絡admin@php.cn

熱AI工具

Undresser.AI Undress

Undresser.AI Undress

人工智慧驅動的應用程序,用於創建逼真的裸體照片

AI Clothes Remover

AI Clothes Remover

用於從照片中去除衣服的線上人工智慧工具。

Undress AI Tool

Undress AI Tool

免費脫衣圖片

Clothoff.io

Clothoff.io

AI脫衣器

Video Face Swap

Video Face Swap

使用我們完全免費的人工智慧換臉工具,輕鬆在任何影片中換臉!

熱工具

記事本++7.3.1

記事本++7.3.1

好用且免費的程式碼編輯器

SublimeText3漢化版

SublimeText3漢化版

中文版,非常好用

禪工作室 13.0.1

禪工作室 13.0.1

強大的PHP整合開發環境

Dreamweaver CS6

Dreamweaver CS6

視覺化網頁開發工具

SublimeText3 Mac版

SublimeText3 Mac版

神級程式碼編輯軟體(SublimeText3)

如何在HAProxy中實現SSL通過 如何在HAProxy中實現SSL通過 Mar 20, 2024 am 09:30 AM

保持Web伺服器負載平衡是預防停機的關鍵措施之一。使用負載平衡器是一種可靠的方法,其中HAProxy是一個備受推崇的選擇。使用HAProxy,您可以精確設定負載平衡方式,同時支援SSL直通,進而確保客戶端與伺服器之間的通訊安全。首先探討在HAProxy中實現SSL直通的重要性,隨後詳細討論了實施此功能所需的步驟,並提供了一個範例以便更好理解。什麼是SSL通過?為什麼它很重要?作為負載平衡器,HAProxy接受並指派流向您Web伺服器的負載,在已設定的伺服器上進行分發。負載的分配是針對客戶端設備和

Spring Data JPA 的架構和工作原理是什麼? Spring Data JPA 的架構和工作原理是什麼? Apr 17, 2024 pm 02:48 PM

SpringDataJPA基於JPA架構,透過映射、ORM和事務管理與資料庫互動。其儲存庫提供CRUD操作,派生查詢簡化了資料庫存取。此外,它使用延遲加載,僅在必要時檢索數據,從而提高了效能。

1.3ms耗時!清華最新開源行動裝置神經網路架構 RepViT 1.3ms耗時!清華最新開源行動裝置神經網路架構 RepViT Mar 11, 2024 pm 12:07 PM

论文地址:https://arxiv.org/abs/2307.09283代码地址:https://github.com/THU-MIG/RepViTRepViT在移动端ViT架构中表现出色,展现出显著的优势。接下来,我们将探讨本研究的贡献所在。文中提到,轻量级ViTs通常比轻量级CNNs在视觉任务上表现得更好,这主要归功于它们的多头自注意力模块(MSHA)可以让模型学习全局表示。然而,轻量级ViTs和轻量级CNNs之间的架构差异尚未得到充分研究。在这项研究中,作者们通过整合轻量级ViTs的有效

Golang生死未卜?谷歌態度揭秘 Golang生死未卜?谷歌態度揭秘 Mar 06, 2024 pm 05:42 PM

網路產業的發展日新月異,程式語言也不斷演進。在眾多程式語言中,Golang(Go)作為一種相對年輕的語言,自問世以來備受關注。然而,關於Golang的前景和發展態勢一直有著各種不同的觀點和猜測。究竟Golang的生死未卜?谷歌對於Golang的態度又是如何的呢? Golang作為一種由Google開發的開源程式語言,自誕生以來就備受關注。它的設計初衷是為了

真我身世揭秘:究竟是OPPO的子品牌嗎? 真我身世揭秘:究竟是OPPO的子品牌嗎? Mar 23, 2024 pm 09:24 PM

「真我」身世揭秘:究竟是OPPO的子品牌嗎?隨著智慧型手機市場的不斷發展,各個手機品牌紛紛推出新款產品來滿足消費者不斷變化的需求。其中,一款名為「真我」的手機品牌近年來備受關注,其高性價比和優質的用戶體驗受到了許多消費者的歡迎。然而,關於「真我」手機的身世和品牌背景,一直以來都籠罩著一層神秘的面紗。近日,有消息指出「真我」手機是OPPO的子品牌,這消息在手機圈

golang框架架構的學習曲線有多陡峭? golang框架架構的學習曲線有多陡峭? Jun 05, 2024 pm 06:59 PM

Go框架架構的學習曲線取決於對Go語言和後端開發的熟悉程度以及所選框架的複雜性:對Go語言的基礎知識有較好的理解。具有後端開發經驗會有所幫助。複雜度不同的框架導致學習曲線差異。

如何從駕駛艙Web使用者介面啟用管理訪問 如何從駕駛艙Web使用者介面啟用管理訪問 Mar 20, 2024 pm 06:56 PM

Cockpit是一個面向Linux伺服器的基於Web的圖形介面。它主要是為了使新用戶/專家用戶更容易管理Linux伺服器。在本文中,我們將討論Cockpit存取模式以及如何從CockpitWebUI切換Cockpit的管理存取。內容主題:駕駛艙進入模式查找當前駕駛艙訪問模式從CockpitWebUI啟用Cockpit的管理訪問從CockpitWebUI禁用Cockpit的管理訪問結論駕駛艙進入模式駕駛艙有兩種訪問模式:受限訪問:這是駕駛艙的默認訪問模式。在這種存取模式下,您無法從駕駛艙Web用戶

手撕Llama3第1層: 從零開始實現llama3 手撕Llama3第1層: 從零開始實現llama3 Jun 01, 2024 pm 05:45 PM

一、Llama3的架構在本系列文章中,我們從頭開始實作llama3。 Llama3的整體架構:圖片Llama3的模型參數:讓我們來看看這些參數在LlaMa3模型中的實際數值。圖片[1]上下文視窗(context-window)在實例化LlaMa類別時,變數max_seq_len定義了context-window。類別中還有其他參數,但這個參數與transformer模型的關係最為直接。這裡的max_seq_len是8K。圖片[2]字彙量(Vocabulary-size)和注意力層(AttentionL

See all articles