这里是LVS集群项目的中文社区。欢迎大家在这里讨论和交流LVS集群的安装、使用、维护与开发,以及相关技术,帮助完善LVS的中文文档。也欢迎您在这里建立您的博客!
网络拓扑如图,使用LVS-DR模式,VIP与directory的Eth1网口的ip相同 directory配置: ipvsadm -A -t 192.168.1.1:80 -s rr ipvsadm -a -t 192.168.1.1:80 -r 192.168.2.2:80 -g -w 1
realserver配置: ifconfig lo:0 192.168.1.1 netmask 255.255.255.255 up route add -host 192.168.1.1 dev lo:0 echo 1 >/proc/sys/net/ipv4/conf/lo/arp_ignore echo 2 >/proc/sys/net/ipv4/conf/lo/arp_announce echo 1 >/proc/sys/net/ipv4/conf/all/arp_ignore echo 2 >/proc/sys/net/ipv4/conf/all/arp_announce route add -host 192.168.1.2 gw 192.168.3.2
使用2台lvs服务器+3组应用共6台真实服务器部署了keepalived+lvs+dr模式,刚开始的时候一切正常 ipvsadm后会有正常的一些连接数,但是过了1-2天再使用ipvsadm的时候 发现ActiveConn InActConn均为0,但实际是有连接进入转发到真实服务器的 ,有时会出现其中一组的一台realserver 轮询不到,但是服务和端口都是正常的
环境: CentOS release 6.2 2.6.32-220.el6.x86_64 keepalived-1.2.7 ipvsadm v1.26 IPVS v1.2.1
使用的是keepalived做健康检查 因为目前使用VIP的数量有200左右. 每个VIP下面realserver约在5-10个左右 每个keepalived所管理的realserver数量大概在1100个左右,keepalived进程就会挂掉,然后进入无限循环 现在只有keepalvied start 或是 keepalived reload 都会在出现大量这样的日志
大家好,最近遇到一个问题,请帮忙解答一下: 在系统日志messages中出现了READ to 192.168.128.9:7777 time out的日志信息,之后LVS自动将所有的BE都剔除,这个情况有解决的方法或者规避防范吗?
各位好,我的环境是lvs+keepalvied;版本是ipvsadm-1.26-4.el6.x86_64 keepalived-1.2.7。 2.6.32-431.el6.x86_64
最近出现了一个很奇怪的问题,我用一台监控机,curl的方式每2分钟一次对域名进行调用,域名是直接解析到VIP的, 在昨晚到今早,curl一直无法调通,报错Error: no response from server。在监控机上ping VIP可以连通,telnet VIP 80失败;我查看lvs正常,无报错,于是用另一台业务机telnet VIP 80是可以的。 这样来回测试很多次问题依然存在。于是重启keetalived后在监控机上再次telnet VIP 80 ,结果是可以连通。 这种问题遇到2次,不重启就一直无法联通,有一次持续了1天。
针对这个问题,上午进行测试,考虑是否是因为监控机的网络连接过多导致,上午将连接压倒1W多,再用curl调用域名依然是可以的,排除连接导致。把问题提出来,看各位是否有遇到的,是如何解决的?或者能否告知这种问题该如何排查的思路。 关于这个VIP部分的配置如下:
机器1配置 配置:eht0,如果是虚拟机Net模式 DEVICE=eth0 HWADDR=00:0C:29:E0:42:2C TYPE=Ethernet UUID=a47598a6-fd21-43ac-a345-b46aad466153 ONBOOT=yes NM_CONTROLLED=yes BOOTPROTO=none BROADCAST=192.168.188.255 IPADDR=192.168.188.2 NETMASK=255.255.255.0 NETWORK=192.168.188.1 配置:eth1,如果是虚拟机设置桥接模式 DEVICE=eth1 HWADDR=00:50:56:3e:b7:21 TYPE=Ethernet UUID=a47598a6-fd21-83ac-a345-b46aad466153 ONBOOT=yes NM_CONTROLLED=yes BOOTPROTO=none BROADCAST=192.168.1.255 IPADDR=192.168.1.238
有个客户的需求如下: 负载均衡的4层(IPVS)和7层(Nginx)需要支持二级流控能力。 一级流控指标描述:最高1.5倍容量时,保证90%以上的设计容量的业务处理能力;1.5倍--3倍容量时,保证80%以上的设计容量的业务处理能力;3倍--10倍容量时,保证50%以上的设计容量的业务处理能力。 二级流控指标描述:最高3倍容量时,保证100%以上的设计容量的业务处理能力;3倍--10倍容量时,保证80%以上的设计容量的业务处理能力。
如何优化LVS或者Nginx, 或者修改源代码来满足这个需求如最高3倍容量时,保证100%以上的设计容量的业务处理能力??
由于Linux发行版不匹配,无法编译成功ali_kernel。需要使用toa功能,打算参考源码修改内核源码,ali_kernel GIT网上没有关于toa说明,想咨询下这部分源码文件在哪里?
我从客户端访问虚IP,没有达到负载均衡效果,折腾好久也不知道是哪出了问题,一些具体描述发了相关截图,谢谢!
There are currently 0 users online.