认识认识LVS负载均衡集群

栏目: 后端 · 发布时间: 5年前

内容简介:一、集群技术的概述1、集群的类型无论是那种集群,都至少包括两台节点服务器,而外部则表现为一个整体,只提供一个访问入口,相当于一台大型计算机。根据群集所针对的目标差异,可分为以下三种内型:

一、集群技术的概述

1、集群的类型

无论是那种集群,都至少包括两台节点服务器,而外部则表现为一个整体,只提供一个访问入口,相当于一台大型计算机。根据群集所针对的目标差异,可分为以下三种内型:

负载均衡集群:以提高应用系统的响应能力,尽可能处理更多的访问请求,减少延迟,获得高并发,高负载的整天性能,例如:“DNS轮询”,“应用层交换”,“反向代理”等都可以做负载均衡群集。

高可用集群:以提高应用系统的可靠性,尽可能地减少中断时间,确保服务的连续性,达到高可用的容错效果,例如:“故障切换”,“双机热备”,“多机热备”等都属于高可用群集。

高性能运算集群:以提高应用系统的CPU运算速度,扩展硬件资源和分析能力,获得相当于大型,超级计算机的高性能运算能力,例如:“云计算”等就属于高性能运算群集的一种。

2、负载均衡的分层结构

在典型的负载均衡集群中,包括以下三个层次的组件。

第一层:负载调度器,这是访问整个集群系统的唯一入口,多外使用所有服务器共有的VIP(虚拟IP)地址,也称集群IP地址。通常会配置主,备两台调度器实现热备,当主调度器失效以后平滑替换至备用调度器,确保高可用性。

第二层:服务器池:集群所提供的应用服务由服务器池承担,其中的每个节点具有独立的RIP(真实IP)地址,只处理调度器分发过来的客户机请求。

第三层:共享存储,为服务器池中的所有节点提供稳定,一致的文件存取服务,确保整个集群的统一性;在 Linux 环境中,共享存储可以使用NAS设备或者提供NFS(网络文件系统)共享服务的专用服务器。

典型的负载均衡群集结构拓扑图如下:

认识认识LVS负载均衡集群

3、负载均衡的工作模式

关于集群的负载调度,可以基于IP,端口,内容进行分发,其中基于IP的负载调度器效率最高,常见的有地址转换(NAT)、IP隧道(TUN)、直接路由(DR)这三种工作模式。

地址转换:简称NAT模式,类似于防火墙的私有网络结构,负载调度器作为所有服务器节点的网关,即作为客户机的访问入口,也是各节点回应客户机的访问出口,服务器节点使用私有IP地址,与负载均衡调度器位于同一个物理网络,节点服务器网关必须指定调度器内外地址;安全性要优于其他两种模式。

IP隧道:简称TUN模式,采用开放式的网络结构,负载调度器仅作为客户机的入口,各节点通过各自的Internet连接直接回应客户机,而不再经过负调度器。服务器节点分散在互联网的不同位置,具有独立的公网IP地址,通常专用IP隧道与负载调度器相互通信。

直接路由:简称DR模式,采用半开放式的网络结构,与TUN模式的结构类似,但各节点并不是分散在各地,而是与调度器位于同一个物理网络。负载调度器与各节点服务器通过本地网络连接,不需要建立专用的IP隧道;DIP负责处理入站请求,相应的报文则由RIP直接发往客户端,RIP不能将网关指向DIP,不支持端口映射。

二、LVS虚拟服务器概述

Linux Virtual Server简称LVS,是针对Linux内核开发的一个负载均衡项目,LVS现在已经成为Linux内核的一部分,默认编译为ip_vs模块,必要时能够自动调用。

#查看内核是否编译IP_VS模块:

# grep -i 'IP_VS' /boot/config-3.10.0-862.9.1.el7.x86_64

CONFIG_IP_VS=m

CONFIG_IP_VS_IPV6=y

# CONFIG_IP_VS_DEBUG is not set

CONFIG_IP_VS_TAB_BITS=12

CONFIG_IP_VS_PROTO_TCP=y

CONFIG_IP_VS_PROTO_UDP=y

CONFIG_IP_VS_PROTO_AH_ESP=y

CONFIG_IP_VS_PROTO_ESP=y

CONFIG_IP_VS_PROTO_AH=y

CONFIG_IP_VS_PROTO_SCTP=y

CONFIG_IP_VS_RR=m

CONFIG_IP_VS_WRR=m

CONFIG_IP_VS_LC=m

CONFIG_IP_VS_WLC=m

CONFIG_IP_VS_LBLC=m

CONFIG_IP_VS_LBLCR=m

CONFIG_IP_VS_DH=m

CONFIG_IP_VS_SH=m

CONFIG_IP_VS_SED=m

CONFIG_IP_VS_NQ=m

CONFIG_IP_VS_SH_TAB_BITS=8

CONFIG_IP_VS_FTP=m

CONFIG_IP_VS_NFCT=y

CONFIG_IP_VS_PE_SIP=m

1、LVS的负载调度算法

轮询(rr):将收到的访问请求按照顺序轮流分配给群集中的各节点,均等地对待每一台服务器,而不管服务器实际的连接数和系统负载。

加权轮询(wrr):根据真实服务器的处理能力轮流分配收到的访问请求,调度器可以自动查询各节点的负载情况,并动态调整其权重。

最少连接(lc):根据真实服务器已建立的连接数进行分配,将收到的访问请求优先分配给连接数最少的节点。

加权最少连接(wlc):在服务节点的性能差异较大的情况下,可以为真实服务器自动调整权重,权重较高的节点将承载更大比例的活动连接负载。

2、加载LVS内核模块,安装ipvsadm管理工具

ipvsadm是在负载调度器上使用的LVS群集管理工具,通过调用ip_vs模块来添加,删除服务器节点,以及查看群集的运行状态。

#modprobe ip_vs

#确认内核对LVS的支持

# modprobe ip_vs

# cat /proc/net/ip_vs

IP Virtual Server version 1.2.1 (size=4096)

Prot LocalAddress:Port Scheduler Flags

-> RemoteAddress:Port Forward Weight ActiveConn InActConn

#安装ipvsadm管理工具

#yum install ipvsadm

3、使用ipvsadm工具管理LVS集群

LVS集群的管理工作主要包括:创建虚拟服务器,添加服务器节点,查看你集群节点状态,修改或删除服务器节点,保存负载分配策略

1)创建虚拟服务器

若群集的VIP地址为172.16.16.172,针对TCP的80端口提供负载分流服务,使用调度算法为轮询,则命令语法如下。对于负载均衡调度器来说,VIP必须是本机(调度器)实际以启用的IP地址。

#ipvsadmin -A  -t 172.16.16.172:80 -s rr

上述操作中,选项“-A”表示添加虚拟服务器,“-t”用来指定VIP地址及TCP端口,“-s”用来指定负载调度算法——轮询(rr),加权轮询(wrr),最少连接(lc),加权最少连接(wlc)。

2)添加服务器节点

为虚拟服务器172.16.16.172添加四个服务器节点,IP地址依次为192.168.7.21-192.168.7.24,对应的ipvsadm命令语法如下。若希望使用保持连接,可以使用“-p 60”参数,其中60为60秒。

#ipvsadmin -a -t 172.16.16.172:80 -r 192.168.7.21:80 -m -w 1

#ipvsadmin -a -t 172.16.16.172:80 -r 192.168.7.22:80 -m -w 1

#ipvsadmin -a -t 172.16.16.172:80 -r 192.168.7.23:80 -m -w 1

#ipvsadmin -a -t 172.16.16.172:80 -r 192.168.7.24:80 -m -w 1

上述操作中,选项“-a”表示添加真实服务器,“-t”用来指定VIP地址及TCP端口,“-r”用来指定RIP地址及TCP端口,“-m”表示使用NAT群集模式(-g DR模式,-i TUN模式),“-w”用来设置权重(权重为0时表示暂停节点)

3)查看群集节点状态

结合选项“-L”可以列表查看LVS虚拟服务器,可以指定只查看某一个VIP地址,结合选项“-n”将以数字形式显示地址,端口等信息。

#ipvsadm -L  -n      //查看节点状态

#ipvsadm  -Lnc        //查看负载连接情况

4)删除服务器节点

需要删除服务器池中某一个节点时,使用选项“-d”。执行删除操作必须指定目标对象,包括节点地址,虚拟IP地址。如果需要删除整个虚拟服务器时,使用选项“-D”并指定虚拟IP地址即可,无需指定节点。

#ipvsadm -d -r 192.168.7.24:80 -t 172.16.16.172:80

#ipvsadm -D -t 172.16.16.172:80  //删除整个虚拟服务器

5)保存负载分配策略

使用导出/导入工具ipvsadm-save/ipvsadm-restore可以保存,恢复LVS策略,操作方法类似于iptables规则的导入/出 。

#ipvsadm-save >  /etc/sysconfig/ipvsadm    //保存策略

#service ipvsadm  stop    //停止服务(清楚策略)

#service ipvsadm  start    //启动服务(加载保存的策略)

三、配置NFS共享存储服务

NFS是一种基于TCP/IP传输的网络文件系统协议,最初由SUN公司开发。

1、使用NFS发布共享资源

NFS服务的实现依赖于RPC(远程过程调用)机制,以完成远程到本地的映射过程。在RHEL 6系统中,需要安装nfs-utils和rpcbind软件包来提供NFS共享服务,前者用NFS共享发布和访问,后者用于NPC支持。(RHEL 5中需安装nfs-utils和portmap软件包。)

1)安装nfs-utils和rpcbind软件包

#yum -y install nfs-utils rpcbind

#chkconfig nfs on

#chkconfig rpcbind on

2)设置共享目录

NFS的配置文件为“/etc/exports”,文件内容默认为空(无任何共享)。在exports文件中设置共享资源时,记录格式为“目录文件” 客户机地址(权限选项)。

#vim /etc/exports

/var/www/html    192.168.7.0/24(rw,sync,no_root_squash)

其中客户机地址可以是主机名,IP地址,网段地址,允许使用*,?等通配符;权限选项中rw表示读写,sync表示同步写入,no_root_squash表示客户机以root身份登录时将root权限作为nfsnobody用户降权对待。

当需要将同一个目录共享给不同的客户机,且分配不同的权限时,只需要分隔指定多个“客户机(权限选项)”即可。

#vim /etc/exports

/var/www/html 192.168.7.1(ro) 192.168.7.10(rw)

3)启动NFS共享服务程序

#service rpcbind start

#service nfs start

#netstat -anpt | grep rpcbind

4)查看本机发布的NFS共享目录

#showmount -e

#挂载存储

#mkdir nfs

#mount -t nfs -o rw 192.168.7.100:/var/www/html/ /ftp/

2、在客户机上访问NFS共享资源

NFS协议的目标是提供一种网络文件系统,因此对NFS共享的访问方式也使用mount命令来进行挂载,对应的文件系统内型为NFS。

1)安装rpcbind软件包,并启用rpcbind服务

若要正常访问NFS共享资源,客户机中也需要安装rpcbind软件包,并启用rpcbind系统服务;另外,为了是showmount查询工具,建议将nfs-utils软件包也一起装上。

#yum -y install rpcbind nfs-utils

#chkconfig rpcbind on

#service rpcbind start

2)手动挂载NFS目录

#mount 192.168.7.250:/var/www/html /var/www/html

完成挂载以后,只要访问客户机的“/var/www/html”文件夹,实际上就相当于访问NFS服务器上的“/var/www/html”文件夹。

3)fstab自动挂载设置

修改“/etc/fstab”配置文件,加入NFS共享目录的挂载��置,注意文件系统类型设为nfs,挂载参数建议添加netdev;若添加soft,intr参数可以实现软挂载,允许在网络中断时放弃挂载。这样客户机就可以在每次开机后自动挂载NFS共享资源了。

#vim /etc/fstab

......//省略部分内容

192.168.7.250:/var/www/html  nfs    /var/www/html  defaults,_netdev  0 0

四、构建LVS集群实例

1、构建NAT模式的LVS集群

在NAT模式的群集中,LVS负载调度器是所有节点访问Internet的网关服务器,其外网地址172.16.16.172同时也作为整个群集的VIP地址。LVS调度器具有两块网卡,分别连接内外网络。拓扑图如下:

认识认识LVS负载均衡集群

对于LVS负载调度器来说,需要使用iptables为出站配置SNAT转发规则,以便节点服务器能够访问Internet。所有的节点服务器,共享存储均位于私有网络内,其默认网关设为LVS负载调度器的内部地址(192.168.7.254).

1)配置SNAT转发规则

#vim /etc/sysctl.conf

......//省略部分内容

net.ipv4.ip_forward = 1

#sysctl -p

#iptables -t nat -A POSTROUTING  -s 192.168.7.0/24 -o eth0 -j SNAT --to-source 172.16.16.172

2)配置负载分配策略

#service ipvsadm  stop    //清楚原有策略

#ipvsadm -A  -t 172.16.16.172:80 -s rr

#ipvsadm -a -t 172.16.16.172:80 -r 192.168.7.21:80 -m -w 1

#ipvsadm -a -t 172.16.16.172:80 -r 192.168.7.22:80 -m -w 1

#ipvsadm -a -t 172.16.16.172:80 -r 192.168.7.23:80 -m -w 1

#ipvsadm -a -t 172.16.16.172:80 -r 192.168.7.24:80 -m -w 1

#service ipvsadm  save    //保存策略

#chkconfig ipvsadm on

3)配置节点服务器

所有节点服务器均使用相同的配置,包括httpd服务端口 ,网站文档内容。实际上各节点的网站文档可存放在共享存储设备上,从而免去同步过程(注意节点服务器网关指向同网段的调度器地址)。

#yum -y install httpd

#mount 192.168.7.250:/var/www/html  /var/www/html

#vim /var/www/html/index.html

负载均衡测试网页!!!

#service httpd start

#chkcofnig httpd on

4)测试LVS群集

安排多台测试机,从Internet中直接访问http://172.16.16.172将能够看到由真实服务器提供的网页内容——如果各节点的网页不同,则不同客户机看到的网页也可能不以样。可以使用ipvsadm工具查看当前连接负载的情况。(在调度器上进行查询)

#ipvsadm -Ln

2、案例2:构建DR模式的负载均衡群集

在DR模式的群集中,LVS负载调度器作为群集的访问入口,但不作为网关使用;服务器池中的所有节点都各自接入Internet,发送给客户机的WEB响应数据包不需要经过LVS负载调度器。

认识认识LVS负载均衡集群

这种方式入站,出站访问数据被分别处理,因此LVS负载调度器和所有的节点服务器都需要配置有VIP地址,以便响应对整个群集的访问。考虑到数据存储的安全性,共享存储设备会放在内部的专用网络中。

1)配置调度器的虚拟IP地址(VIP)及转发路由

采用虚接口的方式(eth0:0),为网卡eth0绑定VIP地址,以便响应群集访问。配置结果为eht0 172.16.16.173/24,eth0:0 172.16.16.172/24

#cd /etc/sysconfig/network-scripts/

#cp ifcfg-eth0  ifcfg-eth0:0

#vim ifcfg-eth0:0

......//省略部分内容

DEVICE=eht0:0

ONBOOT=yes

IPADDR=172.16.16.172

NETMASK=255.255.255.0

#service network restart

#route add -host 172.16.16.172 dev eth0:0  #配置调度器转发路由

2)在节点服务器上调整/proc响应参数

对于DR群集模式来说,由于LVS负载调度器和各节点需要公用VIP地址,为了避免网络内的ARP解析出现异常,应关闭Linux内核的重定向参数响应。

#vim /etc/sysctl.conf

......//省略部分内容

net.ipv4.conf.all.send_redirects = 0

net.ipv4.conf.default.send_redirects = 0

net.ipv4.conf.eth0.send_redirects = 0

#sysctl -p

3)在调度器上配置负载分配策略

#service ipvsadm stop

#ipvsadm -A  -t 172.16.16.172:80 -s rr

#ipvsadm -a  -t 172.16.16.172:80 -r 172.16.16.177:80 -g -w 1

#ipvsadm -a  -t 172.16.16.172:80 -r 172.16.16.178:80 -g -w 1

#ipvsadm -a  -t 172.16.16.172:80 -r 172.16.16.179:80 -g -w 1

#ipvsadm -a  -t 172.16.16.172:80 -r 172.16.16.180:80 -g -w 1

#service ipvsadm save

#chkconfig ipvsadm on

4)配置各节点服务器的虚拟IP地址(VIP)及路由原地址

在每个节点服务器,同样需要具有VIP地址172.16.16.172,但此地址仅用作发送WEB响应数据包的源地址,并不需要监听客户机的访问请求(访 问请求有调度器监听)。因此使用虚接口lo:0来承载VIP地址,并为本机添加一条路由记录,将访问VIP的数据限制在本地以避免通信絮乱。

#cd /etc/sysconfig/network-scripts/

#cp ifcfg-lo ifcfg-lo:0

#vim ifcfg-lo:0

......//省略部分内容

DEVICE=lo:0

ONBOOT=yes

IPADDR=172.16.16.172

NETMASK=255.255.255.255

#service network  restart

#route add  -host 172.16.16.172 dev lo:0  #配置各节点的相应路由原地址

5)调整各节点服务器/proc响应参数

[root@localhost /]#vim /etc/sysctl.conf

......//省略部分内容

net.ipv4.conf.all.arp_ignore = 1

net.ipve.conf.all.arp_announce = 2

net.ipv4.conf.default.arp_ignore = 1

net.ipve.conf.default.arp_announce = 2

net.ipv4.conf.lo.arp_ignore = 1

net.ipve.conf.lo.arp_announce = 2

[root@localhost /]#sysctl -p

6)配置节点服务器服务

#yum -y install httpd

#mount 192.168.7.250:/var/www/html /var/www/html

#vim /var/www/html/index.html

负载均衡测试网页!!!

#service httpd start

#chkcofnig httpd on

7)测试LVS群集

安排多台测试机,从Internet中直接访问http://172.16.16.172将能够看到由真实服务器提供的网页内容——如果各节点的网页不同,则不同客户机看到的网页也可能不以样。可以使用ipvsadm工具查看当前连接负载的情况。(在调度器上进行查询)

#ipvsadm -Ln -c

IPVS connection entries

pro expire state      source            virtual            destination

TCP 01:42  FIN_WAIT    172.16.16.1:10707 172.16.16.172:80 172.16.16.177:80

TCP 01:33  FIN_WAIT    172.16.16.1:10701 172.16.16.172:80 172.16.16.178:80

TCP 01:44  FIN_WAIT    172.16.16.1:10703 172.16.16.172:80 172.16.16.179:80

Linux公社的RSS地址https://www.linuxidc.com/rssFeed.aspx

本文永久更新链接地址: https://www.linuxidc.com/Linux/2019-02/157129.htm


以上所述就是小编给大家介绍的《认识认识LVS负载均衡集群》,希望对大家有所帮助,如果大家有任何疑问请给我留言,小编会及时回复大家的。在此也非常感谢大家对 码农网 的支持!

查看所有标签

猜你喜欢:

本站部分资源来源于网络,本站转载出于传递更多信息之目的,版权归原作者或者来源机构所有,如转载稿涉及版权问题,请联系我们

计算机程序设计艺术

计算机程序设计艺术

Donald E.Knuth / 苏运霖 / 机械工业出版社 / 2006-4 / 45.00元

《计算机程序设计艺术》(经典计算机科学著作最新版)(第1卷第1册双语版)更新了《计算机程序设计艺术,第1卷,基本算法》(第3版),并且最终将成为该书第4版的一部分。具体地说,它向程序员提供了盼望已久的MMIX,代替原来的MIX的一个以RISC为基础的计算机,并且描述了MMIX汇编语言。一起来看看 《计算机程序设计艺术》 这本书的介绍吧!

HTML 编码/解码
HTML 编码/解码

HTML 编码/解码

HEX CMYK 转换工具
HEX CMYK 转换工具

HEX CMYK 互转工具