目录:
  LVS负载调度器算法
  ①轮询
 
群集含义:
①、Cluster、集群、群集
②、由多台主机构成,但对外只表现为一个整体,只提供一个访问入口(域名与IP地址),相当于一台大型计算机。
 
//如果出现了许多500,300多的可能是资源不够了,要加硬件、加服务器、扩展服务器//→竖向优化
 
互联网应用中,随着站点对硬件性能、响应速度、服务稳定性、数据可靠性等要求越来越高,单台服务器已经无法满足负载均衡及高可用性的要求。解决方案①使用价格昂贵的小型机、大型机②使用多台相对廉价的普通服务器构建服务集群
通过整合多台服务器,使用LVS来达到服务器的高可用和负载均衡,并且同一个IP地址对外提供相同的服务。
在企业中常用的一种集群技术——LVS(Linux Virtual Server,Linux虚拟服务器)
 
LVS、Nginx群集
LVS负载均衡做web高并发(不是后端)
 

企业群集分类:

①、负载均衡群集
②、高可用群集
③、高性能运算群集
 

负载均衡群集(Load Balance Cluster):

①、提高应用系统的响应能力、尽可能处理更多的访问请求、减少延迟为目标,获得高并发、高负载(LB)的整体性能
②、LB的负载分配依赖于主节点的分流算法,将来自客户机的访问请求分担给多个服务器节点,从而缓解整个系统的负载。
访问请求分担给多个服务器节点,从而缓解整个系统的负载压力。例如,“DNS轮询“反向代理”等
nginx的负载均衡():
0
 

高可用群集 (High Availability Cluster)

(就是分担风险,挂了一台,其他能顶上来)
①、提高应用系统的可靠性、尽可能地减少中断时间为目标,确保服务的连续性,达到高可用(HA) 的容错效果
②、HA的工作方式包括双工和主从两种模式,双工即所有节点同时在线;主从则只有主节点在线,但当出现故障时从节点能自动切换为主节点。例如:“故障切换”、“双机热备” 等
vrrp就是高可用(解决方案:冗余、单点故障),还有一种高可用SLB(阿里云的负载均衡器)
 

高性能运算群集 (High Performance Computer Cluster)

①、以提高应用系统的CPU运算速度、扩展硬件资源和分析能力为目标,获得相当于大型、超级计算机的高性能运算(HPC)能力
②、高性能依赖于”分布式运算”、“并行计算” , 通过专用硬件和软件将多个服务器的CPU、内存等资源整合在一起,实现只有大型、超级计算机才具备的计算能力
 
异地灾备:
0
 
 

负载均衡群集架构:

0
 
第一层,负载调度器(Load Balancer或Director)
访问整个群集系统的唯一入口, 对外使用所有服务器共有的VIP地址,也称为群集IP地址。通常会配置主、备两台调度器实现热备份,当主调度器失效以后能够平滑替换至备用调度器,确保高可用性。
 
第二层,服务器池(Server Pool)
群集所提供的应用服务、由服务器池承担,其中每个节点具有独立的RIP地址(真实IP),只处理调度器分发过来的客户机请求。当某个节点暂时失效时,负载调度器的容错机制会将其隔离,等待错误排除以后再重新纳入服务器池。
 
第三层,共享存储(Share Storage)
为服务器池中的所有节点提供稳定、一致的文件存取服务, 确保整个群集的统一性共享存储可以使用NAS设备,或者提供NFS共享服务的专用服务器。
0
 
0
其中Nginx负载调度器,tomcat1和2是服务器池,NFS是共享服务
 
 

工作模式

负载均衡群集是目前企业用的最多的群集
群集的负载均衡技术有三种工作模式:
地址转换(NAT)
IP隧道(TUN)
直接路由(DR)
 

NAT模式

0
对安全性优于其他2种,劣势:所有的进出口都是它
 

IP隧道(TUN)

0
一个服务器节点要占用1个公网IP
 

路由模式(DR):

0
 
工作模式
NAT模式
TUN模式
DR模式
server number节点服务器
low10-20
high100
high 100
真实网关
负载调度器
自由路由器
自由路由器
IP地址
公网+私网
公网
私网
优点
安全性高
安全、速度快
性能最好
缺点
效率低、压力大
需要隧道支持
不能跨越lan(局域网)
 

LVS虚拟服务器

LVS现在已成为Linux内核的一部分,默认编译为ip_ vs模块,必要时能够自动调用。在CentOS 7系统中,以下操作可以手动加载ip_ vs模块,并查看当前系统中ip_ vs模块的版本信息。
modprobe ip_vs
cat /proc/net/ip_vs #确认内核对LVS的支持
 

LVS的负载调度算法:

①轮询

将收到的访问请求按照顺序轮流分配给群集中的各节点(真实服务器) ,均等地对待每一台服务器 ,而不管服务器实际的连接数和系统负载

②加权轮询

根据调度器设置的权重值来分发请求,权重值高的节点优先获得任务,分配的请求数越多
保证性能强的服务器承担更多的访问流量

③最少连接

根据真实服务器已建立的连接数进行分配,将收到的访问请求优先分配给连接数最少的节点

④加权最少连接

在服务器节点的性能差异较大时,可以为真实服务器自动调整权重
性能较高的节点将承担更大比例的活动连接负载
 
LVS调度器用的调度方法基本分为两类:
固定调度算法:rr,wrr,dh,sh
rr:轮询算法,将请求依次分配给不同的rs节点,即RS节点中均摊分配。适合于RS所有节点处理性能接近的情况。
wrr:加权轮训调度,依据不同RS的权值分配任务。权值较高的RS将优先获得任务,并且分配到的连接数将比权值低的RS更多。相同权值的RS得到相同数目的连接数。
dh:目的地址哈希调度(destination hashing)以目的地址为关键字查找一个静态hash表来获得所需RS。
sh:源地址哈希调度(source hashing)以源地址为关键字查找一个静态hash表来获得需要的RS。
动态调度算法:wlc,lc,lblc
wlc:加权最小连接数调度,假设各台RS的权值依次为Wi,当前tcp连接数依次为Ti,依次去Ti/Wi为最小的RS作为下一个分配的RS。
lc:最小连接数调度(least-connection),IPVS表存储了所有活动的连接。LB会比较将连接请求发送到当前连接最少的RS。
lblc:基于地址的最小连接数调度(locality-based least-connection):将来自同一个目的地址的请求分配给同一台RS,此时这台服务器是尚未满负荷的。否则就将这个请求分配给连接数最小的RS,并以它作为下一次分配的首先考虑。
 

LVS群集创建与管理

1、创建虚拟服务器
2、添加、删除服务器节点
3、查看群集及节点情况
4、保存负载分配策略
 

LVS管理工具ipvsadm

ipvsadm
选项:
-A 添加虚拟服务器
-D 删除整个虚拟服务器
-s 指定负载调度算法 (轮询:rr、加权轮询: wrr、最少连接: lc、加权最少连接: wlc )
-a 表示添加真实服务器 (节点服务器)
-d 删除某一个节点
-t 指定 VIP地址及 TCP端口
-r 指定 RIP地址及 TCP端口
-m 表示使用 NAT群集模式.
-g 表示使用 DR模式
-i 表示使用 TUN模式
-w 设置权重 (权重为 0 时表示暂停节点)
-p 60 表示保持长连接60秒
-l 列表查看 LVS 虚拟服务器 (默认为查看所有)
-n 以数字形式显示地址、端口等信息,常与 “-l” 选项组合使用。ipvsadm -ln
 

实例:

0
环境:LVS调度器作为Web 服务器池的网关,LVS具有两块网卡,分别连接内外网,使用轮询(rr)调度算法。
NAT模式LVS负载均衡群集部署
0
负载调度器:内网关 ens33:192.168.80.10,外网关 ens36:12.0.0.1
Web节点服务器1:192.168.80.100
Web节点服务器2:192.168.80.101
NFS服务器:192.168.80.13
客户端:12.0.0.12
 
1.部署共享存储(NFS服务器:192.168.63.160)
systemctl stop firewalld.service
systemctl disable firewalld.service
setenforce 0
 
yum install nfs-utils rpcbind -y
systemctl start rpcbind.service
systemctl start nfs.service
systemctl enable nfs.service
systemctl enable rpcbind.service
 
mkdir /opt/kgc /opt/benet
chmod 777 /opt/kgc /opt/benet
echo ‘this is kgc web!’ > /opt/kgc/index.html
echo ‘this is benet web!’ > /opt/benet/index.html
 
vim /etc/exports
/usr/share *(ro,sync)
/opt/kgc 192.168.63.0/24(rw,sync)
/opt/benet 192.168.63.0/24(rw,sync)
 
–发布共享—
exportfs -rv
 
2.配置节点服务器(192.168.63.130、192.168.80.150)
systemctl stop firewalld.service
systemctl disable firewalld.service
setenforce 0
 
yum install httpd -y
systemctl start httpd.service
systemctl enable httpd.service
yum install nfs-utils rpcbind -y
showmount -e 192.168.63.160
 
systemctl start rpcbind
systemctl enable rpcbind
 
web1:192.168.63.130
mount.nfs 192.168.63.100:/opt/kgc /var/www/html
 
vim /etc/fstab
192.168.63.160:/opt/kgc /var/www/html nfs defaults,_netdev 0 0
mount -a
 
web2:192.168.63.150
mount.nfs 192.168.63.100:/opt/benet /var/www/html
echo ‘this is benet web!’ > /var/www/html/index.html
 
vim /etc/fstab
192.168.63.160:/opt/benet /var/www/html nfs defaults,_netdev 0 0
3.配置负载调度器(内网关 ens33:192.168.63.100,外网关 ens36:10.0.0.1)
systemctl stop firewalld.service
systemctl disable firewalld.service
setenforce 0
 
(1)配置SNAT转发规则
yum install -y iptables*
systemctl start iptables
 
vim /etc/sysctl.conf
net.ipv4.ip_forward = 1
 
sysctl -p
或 echo ‘1’ > /proc/sys/net/ipv4/ip_forward
 
iptables -t nat -F
iptables -F
iptables -t nat -A POSTROUTING -s 192.168.63.0/24 -o ens36 -j SNAT –to-source 10.0.0.1
 
(2)加载LVS内核模块
modprobe ip_vs #加载 ip_vs模块
cat /proc/net/ip_vs #查看 ip_vs版本信息
 
(3)安装ipvsadm 管理工具
yum -y install ipvsadm
–启动服务前须保存负载分配策略—
ipvsadm-save > /etc/sysconfig/ipvsadm
或者 ipvsadm –save > /etc/sysconfig/ipvsadm
systemctl start ipvsadm.service
(4)配置负载分配策略(NAT模式只要在服务器上配置,节点服务器不需要特殊配置)
ipvsadm -C #清除原有策略
ipvsadm -A -t 10.0.0.1:80 -s rr [-p 60]
ipvsadm -a -t 10.0.0.1:80 -r 192.168.63.130:80 -m [-w 1]
ipvsadm -a -t 10.0.0.1:80 -r 192.168.63.150:80 -m [-w 1]
ipvsadm #启用策略
ipvsadm -ln #查看节点状态,Masq代表 NAT模式 ipvsadm-save > /opt/ipvsadm #保存策略 ipvsadm-save > /etc/sysconfig/ipvsadm
 
ipvsadm -d -t 10.0.0.1:80 -r 192.168.63.13:80 #删除群集中某一节点服务器 ipvsadm -D -t 10.0.0.1:80 #删除整个虚拟服务器 systemctl stop ipvsadm #停止服务(清空策略) systemctl start ipvsadm #启动服务(根据/etc/sysconfig/ipvsadm重建配置) ipvsadm-restore < /opt/ipvsadm #恢复LVS 策略
4.测试效果
在一台IP为10.0.0.12的客户机使用浏览器访问 http://10.0.0.1/ ,不断刷新浏览器测试负载均衡效果,刷新间隔需长点(或者关闭Web服务的连接保持)。
0
0
 
 

总结:

集群:就是将多台主机作为1个整体,对外提供相同的服务
群集: 类型 负载均衡 高可用 高性能
负载均衡:强调减少响应延迟 提高并发的处理能力
高可用:强调系统的稳定性,减少服务中断时间,减少损失
高性能:强调高性能运算能力 分布式 并发
LVS 负载均衡三种模式
NAT地址转发:调度作为网关,访问请求的入口,也是响应访问的出口,在高并发场景当中负载压力很高,NAT地址转换可以提高安全性
IP隧道:仅是访问请求的入口,响应数据不经过调度器,需要大量的公网IP地址,专用的IP隧道,数据转发受IP隧道的影响
直接路由:仅是访问请求的入口,响应数据不经过调度器,但是节点服务器和调度器在同一个物理网络中,数据转发不受额外影响
用户是通过 VIP 访问 负载调度器
 
报错: 
能ping通,但是连接超时
网关的问题,nat模式下,网关很重要,所有的网关都要指向实际网关:比如网关地址是80(调度器IP)
 

原文地址:http://www.cnblogs.com/qfrg/p/16915292.html

1. 本站所有资源来源于用户上传和网络,如有侵权请邮件联系站长! 2. 分享目的仅供大家学习和交流,请务用于商业用途! 3. 如果你也有好源码或者教程,可以到用户中心发布,分享有积分奖励和额外收入! 4. 本站提供的源码、模板、插件等等其他资源,都不包含技术服务请大家谅解! 5. 如有链接无法下载、失效或广告,请联系管理员处理! 6. 本站资源售价只是赞助,收取费用仅维持本站的日常运营所需! 7. 如遇到加密压缩包,默认解压密码为"gltf",如遇到无法解压的请联系管理员! 8. 因为资源和程序源码均为可复制品,所以不支持任何理由的退款兑现,请斟酌后支付下载 声明:如果标题没有注明"已测试"或者"测试可用"等字样的资源源码均未经过站长测试.特别注意没有标注的源码不保证任何可用性