略去导航.
主页
这里是LVS集群项目的中文社区。欢迎大家在这里讨论和交流LVS集群的安装、使用、维护与开发,以及相关技术,帮助完善LVS的中文文档。也欢迎您在这里建立您的博客!

新手LVS问题求助

是这样的,调度器服务器的IP地址:192.168.7.1、real_server1的IP地址:192.168.7.2、real_server2的IP地址:192.168.7.3。
我的配置是这样的:
ipvsadm -A -t 192.168.7.1:80 -s wrr
ipvsadm -a -t 192.168.7.1:80 -r 192.168.7.2:80 -m
ipvsadm -a -t 192.168.7.1:80 -r 192.168.7.3:80 -m
然后用客户端访问192.168.7.1的时候,使用ipvsadm -lc查看状态,所有都是SYN_RECV状态。
于是我又建立了一个虚拟网卡eth0:0 IP地址为:10.0.0.1。配置如下:
ipvsadm -A -t 10.0.0.1:80 -s wrr
ipvsadm -a -t 10.0.0.1:80 -r 192.168.7.2:80 -m

一个新手加入LVS开发行列,求鼓励!

1)在中国,真正开发LVS人员真的不多,大部分是在使用LVS。
2)我热爱LVS,初次见到源码就开心的不得了。
3)LVS的框架真的非常棒,章前辈和其他所有的开发前辈,你们真的好牛、好强!

我已经正式踏入了LVS领域,目前首要的工作就是完成基于cookie的会话保持,由于内核源码未实现,
求有经验高手指点指点。

在DR/TUN模式下,如何串联多个IPVS?

需求场景:
当LVS1节点的负载瞬间过高时,DNS负载均衡生效是需要一定时间的。这时希望将该LVS1节点的流量直接发送到LVS2节点上。实现Client->IPVS1->IPVS2->RS的过程。

实验:
Client->IPVS1->IPVS2->RS
目前我们没有实验成功。
NOT FOUND: http://zh.linuxvirtualserver.org/files/LVS串联架构实验_tun1.png

Client->IPVS1->HAProxy->IPVS2->RS
能够跑通

问题:
LVS DR/TUN串联为什么跑不通,应该怎么做?

lvs dr 模式下 真机双网卡 路由问题

真实机器双网卡,一个配内网ip, 一个有公网ip,VIP 为另一个公网ip;
公网访问lvs,lvs转发给真实机器后,真实机器从内网卡收到lvs转发的syn包,但是没有返回ack包,应该是被内核丢弃了

但如果把真实机器的内网ip和公网ip都配置在一个网卡上,则没有问题;

这说明一个tcp连接建立要从同一个网卡收发包?
单从路由角度来说,应该是可以建立连接的;是否是系统内核做的限制呢?

LVS(TUN)+ iptables 实现端口转发问题

成功配置LVS(tun)模式,现在想在RS上配置iptables 实现端口转发,即80端口转到8080,但是RS上一配置iptables 马上不通,请问应如何解决?

新手配置LVS,无法并发

第一次配置LVS NAT,按照网上的办法安装测试发现无法并发,我的环境如下:
负载均衡器:用一台双网卡PC代替,系统是CentOS 6.4
eth0 192.168.1.191 (VIP)
eth1 10.0.0.1
两台windows作为real server
server1:10.0.0.2 gw 10.0.0.1
server2:10.0.0.3 gw 10.0.0.1
打开路由转发,关防火墙
# ipvsadm -C
# ipvsadm -At 192.168.1.191:5000 -s rr
# ipvsadm -at 192.168.1.191:5000 -r 10.0.0.2:5000 -m
# ipvsadm -at 192.168.1.191:5000 -r 10.0.0.3:5000 -m

LVS NAT模式性能问题及硬件配置

各位,想请教一下,如果部署LVS NAT模式,那通性能会如何,需要什么样的硬件配置。

有没有一个参考的软、硬件的性能对比表。

补充一下,以前文档都说是10-20个集群,但我认为这个文件都是2002年的,按目前的硬件配置,能性会是多少?

我的这个LVS配置有什么不对呢?

我是新手,第一次做这个简单的配置就失败了。

我在虚拟机里装了3台CENTOS6.5,和我宿主机在192.168.0.*网段,宿主机是192.168.0.101,三台虚拟机分别为192.168.0.41/42/43。
然后我给三台虚拟机配置了192.168.1.*的网段,ip分别是192.168.1.41/42/43,也都可以互相ping通了。

我用192.168.0.41做调度器,做成了这种配置:

[root@localhost ~]# ipvsadm -L
IP Virtual Server version 1.2.1 (size=4096)
Prot LocalAddress:Port Scheduler Flags

后端真机失效以后,连接记录依然存在。双TCP监控问题

第一个问题,当真机失效以后,使用ipvsadm -lcn | grep x.x.x.x查看真机连接情况,发现先前的连接依然存在, 我观察了一下,要过一段时间才真正消失,这是什么原因,请帮忙解释一下。

求助,LVS DR piranha 配置,无法转发非80端口。。。。

我在vm上配置了piranha,159为LB 157,158 为RS,vip为160。。。。
设置以后只能转发80端口,请问有人知道原因吗?

6600那个是自己写的一个小的rmi的程序,用来测试,157,158上都已经跑起来了。

Prot LocalAddress:Port Scheduler Flags
-> RemoteAddress:Port Forward Weight ActiveConn InActConn
TCP 192.168.12.160:6600 rr
TCP 192.168.12.160:http wrr
-> 192.168.12.158:http Route 1 0 0
-> 192.168.12.157:http Route 6 0 0