好网站建设公司地址,wordpress api key,郑州超凡装饰公司怎么样,企业网站制作费用目录 LVS群集简介
群集的含义和应用场景
性能扩展方式
群集的分类
负载均衡#xff08;LB#xff09;
高可用#xff08;HA#xff09;
高性能运算#xff08;HPC#xff09;
LVS的三种工作模式
NAT 地址转换
TUN IP隧道 IP Tunnel
DR 直接路由 Direct Rout…目录 LVS群集简介
群集的含义和应用场景
性能扩展方式
群集的分类
负载均衡LB
高可用HA
高性能运算HPC
LVS的三种工作模式
NAT 地址转换
TUN IP隧道 IP Tunnel
DR 直接路由 Direct Routing
LVS调度算法
负载均衡结构
部署实例
实验流程
实验准备
实验步骤 部署共享存储NFS服务器192.168.75.70
配置节点服务器192.168.75.50、192.168.75.60 配置负载调度器内网关 ens33192.168.75.30外网关 ens3612.0.0.1
配置负载分配策略NAT模式只要在服务器上配置节点服务器不需要特殊配置 实验效果测试 LVS群集简介
群集的含义和应用场景
群集是为解决某个特定问题将多台计算机组合起来形成的单个系统由多台主机构成但对外只表现为一个整体相当于一台大型计算机提供服务。
互联网应用中随着站点对硬件性能、响应速度、服务稳定性、数据可靠性等要求越来越高单台服务器已经无法满足负载均衡及高可用的要求所有产生了LVS群集技术提供稳定高效服务。
性能扩展方式
纵向扩展——对服务器的CPU、内存、硬盘等硬件进行升级或者扩容来实现但存在性能上限会有瓶颈成本昂贵收效比不高等问题。横向扩展——通过增加服务器主机数量来应该高并发的场景。
群集的分类
负载均衡LB
提高应用系统的响应效率处理更多的访问请求减少延迟提高并发和负载能力。 LB的负载分配依赖于主节点的分流算法将来自客户机的访问请求分担给多个服务器节点从而缓解整个系统的负载压力。例如“DNS轮询”“反向代理”等。
高可用HA
提高应用系统的可靠性减少服务中断时间确保服务的连续性。 HA的工作方式包括双工和主从两种模式双工即所有节点同时在线主从则只有主节点在线但当出现故障时从节点能自动切换为主节点。例如“故障切换”“双机热备”等。
高性能运算HPC 以提高应用系统的CPU运算速度、扩展硬件资源和分析能力为目标获得相当于大型、超级计算机的高性能运算能力。 高性能依赖于“分布式运算”、“并行计算”通过专用硬件和软件将多个服务器的CPU、内存等资源整合在一起实现只有大型、超级计算机才具备的计算能力。例如“云计算”“网格计算”等。
LVS的三种工作模式
NAT 地址转换
调度器会作为所有节点服务器的默认网关也是客户端的访问入口和节点服务器返回响应消息的出口所以调度器会承载双向流量的负载压力可能会为整个群集的性能瓶颈。由于节点服务器都会处于内网环境使用私网IP所以具有一点的安全行。
TUN IP隧道 IP Tunnel
调度器仅作为客户端的访问入口节点服务器的响应消息是直接返回客户端的不需要经过调度器。但是由于节点服务器需要部署在不同的公网环境所以要有独立的公网IP而且调度器与节点服务器是通过专用的IP隧道实现相互通信因此IP隧道模式的成本较高、安全性较低且数据IP隧道传输的过程中需要额外的封装和解封装性能也会受到一定的影响。
DR 直接路由 Direct Routing
调度器仅作为客户端的访问入口节点服务器的响应消息是直接返回客户端的不需要经过调度器。与NAT模式的区别 节点服务器与调度器是部署在同一个物理网络里因此不需要建议专用的IP隧道。与IP隧道模式的区别 DR模式是企业首选的LVS模式。
LVS调度算法 rr轮询wrr加权轮询sh源地址哈希dh目的地址哈希 lc最小连接wlc加权最小连接优先分配请求给 连接数/权重值 的值最小的节点服务器lblc基于地址的最小连接优先根据目的地址哈希将请求分配给同一个节点服务器若此节点服务器满负荷了则优先将请求分配当前连接数最小的节点服务器
负载均衡结构
第一层负载调度器(Load Balancer或Director)访问整个群集系统的唯一入口对外使用所有服务器共有的VIP地址也称为群集IP 地址。通常会配置主、备两台调度器实现热备份当主调度器失效以后能够平滑替换至备用调度器确保高可用性。第二层服务器池(Server Pool)群集所提供的应用服务、由服务器池承担其中每个节点具有独立的RIP地址 (真实IP) 只处理调度器分发过来的客户机请求。当某个节点暂时失效时负载调度器的容错机制会将其隔离等待错误排除以后再重新纳入服务器池。第三层共享存储 (Share Storage为服务器池中的所有节点提供稳定、一致的文件存取服务确保整个群集的统一性共享存储可以使用 NAS设备或者提供 NFS共享服务的专用服务器。 部署实例
实验流程
部署NFS共享存储部署Web节点服务器注意节点服务器的默认网关要指向调度器的内网IP测试的时候可关闭连接保持部署调度器配置双网卡开启IP路由转发功能如果内网中的节点服务器需要访问外网则要配置SNAT规则安装ipvsadm工具添加虚拟服务器和真实服务器的相关配置使用-m选项选择NAT模式客户端设置默认网关指向调度器的外网IP并使用客户端工具测试
实验准备 负载调度器内网关 ens33192.168.75.30外网关 ens3612.0.0.1 Web节点服务器1192.168.75.50 Web节点服务器2192.168.75.60 NFS服务器192.168.75.70 客户端12.0.0.66 实验步骤 部署共享存储NFS服务器192.168.75.70 关闭防火墙安全机制
systemctl stop firewalld.service
systemctl disable firewalld.service
setenforce 0
下载nfsrpcbind服务并开启
yum install nfs-utils rpcbind -y
systemctl start rpcbind.service
systemctl start nfs.service
创建要共享出去的目录
mkdir /opt/kgc /opt/benet
chmod 777 /opt/kgc /opt/benet
将目录共享
vim /etc/exports
/usr/share *(ro,sync)
/opt/kgc 192.168.75.0/24(rw,sync)
/opt/benet 192.168.75.0/24(rw,sync)
发布共享
exportfs -rv
查看共享
showmount -e
共享成功
进到配置文件写入网页内容
/opt/kgc
/opt/benet
配置节点服务器192.168.75.50、192.168.75.60
在两台节点服务器下 关闭防火墙安全机制
systemctl stop firewalld.service
systemctl disable firewalld.service
setenforce 0
下载httpdrpcbindnfs服务并开启
yum install httpd -y
systemctl start httpd.service
yum install nfs-utils rpcbind -y
systemctl start rpcbind查看70主机是否共享出来了
第一台节点服务器192.168.75.50配置 永久挂载目录 vim /etc/fstab
192.168.75.50:/opt/kgc /var/www/html nfs defaults,_netdev 0 0 第二台节点服务器192.168.75.60配置 永久挂载目录 vim /etc/fstab
192.168.75.60:/opt/benet /var/www/html nfs defaults,_netdev 0 0 配置负载调度器内网关 ens33192.168.75.30外网关 ens3612.0.0.1
多网卡配置
ens33网卡的配置
ens36网卡的配置
配置SNAT转发规则 在配置文件中添加
vim /etc/sysctl.conf
net.ipv4.ip_forward 1
iptables -t nat -F
iptables -F
iptables -t nat -A POSTROUTING -s 192.168.80.0/24 -o ens36 -j SNAT --to-source 12.0.0.1 加载LVS内核模块 modprobe ip_vs #加载 ip_vs模块
cat /proc/net/ip_vs #查看 ip_vs版本信息for i in $(ls /usr/lib/modules/$(uname -r)/kernel/net/netfilter/ipvs|grep -o ^[^.]*);do echo $i; /sbin/modinfo -F filename $i /dev/null 21 /sbin/modprobe $i;done 安装ipvsadm 管理工具 yum -y install ipvsadm--启动服务前须保存负载分配策略---
ipvsadm-save /etc/sysconfig/ipvsadm
或者 ipvsadm --save /etc/sysconfig/ipvsadmsystemctl start ipvsadm.service注ipvsadm管理工具的选项 配置负载分配策略NAT模式只要在服务器上配置节点服务器不需要特殊配置 ipvsadm -C #清除原有策略
ipvsadm -A -t 12.0.0.1:80 -s rr [-p 60]
ipvsadm -a -t 12.0.0.1:80 -r 192.168.75.50:80 -m [-w 1]
ipvsadm -a -t 12.0.0.1:80 -r 192.168.75.60:80 -m [-w 1]
ipvsadm #启用策略ipvsadm -ln #查看节点状态Masq代表 NAT模式
ipvsadm-save /opt/ipvsadm #保存策略
ipvsadm-save /etc/sysconfig/ipvsadm注ipvsadm -d -t 12.0.0.1:80 -r 192.168.80.11:80 #删除群集中某一节点服务器
ipvsadm -D -t 12.0.0.1:80 #删除整个虚拟服务器
systemctl stop ipvsadm #停止服务清空策略如果selinux没关闭/etc/sysconfig/ipvsadm内容也会清空
systemctl start ipvsadm #启动服务根据/etc/sysconfig/ipvsadm恢复策略
ipvsadm-restore /opt/ipvsadm #恢复LVS 策略 实验效果测试
在一台IP为12.0.0.66的客户机使用浏览器访问 http://12.0.0.1/ 不断刷新浏览器测试负载均衡效果刷新间隔需长点或者关闭Web服务的连接保持。
打开一台虚拟windows系统进行配置
在网页搜索