这里是LVS集群项目的中文社区。欢迎大家在这里讨论和交流LVS集群的安装、使用、维护与开发,以及相关技术,帮助完善LVS的中文文档。也欢迎您在这里建立您的博客!

关于 lvs/tun 再实际部署中的问题

这两天再部署 lvs-tun 遇到一个问题, 经多番 百度 google 无果,无奈之下跑来向基地请求帮助. (话说我再内网做测试的时候是完全没有问题的,不同网段也没问题!!)
还请为小弟解惑..

问题描述:
客户端请求发送到 lvs-tun load balance server , ( 正常 )
lvs-tun load balance server 讲请求调度到 Realserver, (正常)
Realserver 不做回应. (不正常)

lvs-tun load balance server:
VIP: 98.126.175.x1 (eth0:0)
IP: 98.126.175.x2 (eth0)

ifconfig eth0:0 $VIP netmask 255.255.255.255 broadcast $VIP up

Forums:

LVS+keepalived高可用负载均衡,vrrp触发后不能广播浮动地址的arp纪录到网关

LVS+keepalived
两台LVS控制机配置了keepalived
keepalived启停正常,停掉主用keepalived后,备用切换也正常(这里说的正常就是/var/log/message日志正常,显示切换成功了,也发arp了)

但是切换时网关上的arp表不能立刻更新为浮动地址对应备用LVS的mac
同样清除网关上的arp,keepalived切回主用LVS也不能自动更新网关上的arp表

从主用LVS上(keepalived已经自动绑定了vip,这个没问题)arping网关地址,网关arp表可以更新,排除网关设备的嫌疑。

Forums:

Keepalived+LVS报错Destination Host Unreachable

我在10.30.9.204上搭建了个LVS,用ipvsadm命令查看后如下:
IP Virtual Server version 1.2.1 (size=4096)
Prot LocalAddress:Port Scheduler Flags
-> RemoteAddress:Port Forward Weight ActiveConn InActConn
TCP 10.30.9.251:mysql rr persistent 50
-> 10.30.9.211:mysql Route 3 0 0
-> 10.30.9.208:mysql Route 3 0 0
-> 10.30.9.207:mysql Route 3 0 0
-> 10.30.9.206:mysql Route 3 0 0

Forums:

关于LVS+keepalived主备切换的问题

大家好,我用2台虚拟机做负载均衡,一主一备。

但是我用ipvsadm -L查看,主备机上都有虚拟IP信息。

当客户端连接的时候,主备机之间能切换,比如图形化数据库客户端连接数据库节点,切换之后会出现掉线,重新点击表格之后又正常了。

客户端不需要重新连接,是不是连接保持的问题?

现在关键是2台机子都能看到虚拟IP的信息,感觉好像2个都是主机,而且查询数据的连接,一会在主机上,一段时间之后又在备机上。

Forums:

nat模式,外网可以ping通vip,但是不能打开网页

环境是这样的
一台调度服务器
外网Ip:192.168.1.3
内网IP:10.0.1.3
vip:19.168.1.2
已经设置ip_forward
net.ipv4.ip_forward = 1

三台真正web
配置情况如下:
web1
10.0.1.0/24 dev eth1 proto kernel scope link src 10.0.1.228
192.168.1.0/24 dev eth0 proto kernel scope link src 192.168.1.228
169.254.0.0/16 dev eth0 scope link metric 1002
169.254.0.0/16 dev eth1 scope link metric 1003
default via 10.0.1.5 dev eth1

web2
10.0.1.0/24 dev eth1 proto kernel scope link src 10.0.1.227

Forums:

ipvs+keepalived最鬼异问题,vs/dr模式,数据包已经转发给rs了,但rs无法返回数据包给请求者。

vs/dr模式,数据包已经转发给rs了,但rs无法返回数据包给请求者。

VIP:192.168.8.105
keepalived-1:192.168.8.101
keepalived-2:192.168.8.102
realserver:192.168.8.103
realserver:192.168.8.104

[root@rac1 etc]# ipvsadm
IP Virtual Server version 1.2.1 (size=4096)
Prot LocalAddressort Scheduler Flags
-> RemoteAddressort Forward Weight ActiveConn InActConn
TCP 192.168.8.105:http rr
-> 192.168.8.104:http Route 3 4 0
-> 192.168.8.103:http Route 3 11 0

MASTER:

Forums:

lvs 日志

请问如何将访问url的日志 在lvs上体现出来?

Forums:

lvs-DR后台脚本问题

后台realserver脚本如下
#!/bin/bash
SNS_VIP=192.168.1.100
. /etc/rc.d/init.d/functions
case "$1" in
start)
ifconfig lo:0 $SNS_VIP netmask 255.255.255.255 broadcast $SNS_VIP
/sbin/route add -host $SNS_VIP dev lo:0
echo "1" >/proc/sys/net/ipv4/conf/lo/arp_ignore
echo "2" >/proc/sys/net/ipv4/conf/lo/arp_announce
echo "1" >/proc/sys/net/ipv4/conf/all/arp_ignore
echo "2" >/proc/sys/net/ipv4/conf/all/arp_announce
echo "1">/proc/sys/net/ipv4/conf/eth0/arp_ignore
echo "2">/proc/sys/net/ipv4/conf/eth0/arp_announce

Forums:

在DR模式 下面为什么客户端会不断的发送FIN ACK到服务端

情况还原:
1. 本集群基于DR模式
2. 正常工作了2年多了
3. 每天访问 PV kw级别

最近在做测试的时候发现:

客户端请求VIP,通过抓包发现。 数据正常返回后,客户端还会不断向服务器发送“FIN ACK”
把IP直接指向后端的realserver .http正常结束。

问题:
是不是由于采用DR模式后,端的请求直接转给了realserver 没有完成正常的HTTP握手过程,导致客户端不断访问?
这种持续的连接不中断显然会大大消耗服务器资源,怎么攺进呢?

Forums:

LVS/NAT模式求教

最近在研究LVS/NAT结构,碰到一个问题:
客户划分了3个VLAN放置LVS服务器,WEB服务器,DB服务器。
LVS vlan :
LVS active server :eth0 172.16.203.10
LVS standby server :eth0 172.16.203.11
WEB VLAN:
WEB active1 eth0:172.16.200.10
WEB active1 eth0:172.16.200.11
DB vlan :
DB active eth0:172.16.201.10
DB standby eth0:172.16.200.11
我测试时对于NAT Route和WEB 服务器的默认网关配置产生了疑问。
因为web服务器所在VLAN 的GateWay 是172.16.200.1。

Forums:

页面

Subscribe to LVS中文站点 RSS
randomness