这里是LVS集群项目的中文社区。欢迎大家在这里讨论和交流LVS集群的安装、使用、维护与开发,以及相关技术,帮助完善LVS的中文文档。也欢迎您在这里建立您的博客!
第一个问题,当真机失效以后,使用ipvsadm -lcn | grep x.x.x.x查看真机连接情况,发现先前的连接依然存在, 我观察了一下,要过一段时间才真正消失,这是什么原因,请帮忙解释一下。
我在vm上配置了piranha,159为LB 157,158 为RS,vip为160。。。。 设置以后只能转发80端口,请问有人知道原因吗?
6600那个是自己写的一个小的rmi的程序,用来测试,157,158上都已经跑起来了。
Prot LocalAddress:Port Scheduler Flags -> RemoteAddress:Port Forward Weight ActiveConn InActConn TCP 192.168.12.160:6600 rr TCP 192.168.12.160:http wrr -> 192.168.12.158:http Route 1 0 0 -> 192.168.12.157:http Route 6 0 0
LVS/DR方式部署的集群,其中,RealServer(CentOS 6.2)安装的Tomcat,部署的系统主要是提供WebService调用,另外也包含小部分Web页面(管理界面)。 集群搭好以后,一切都正常,通过VIP能正常访问Web页面,调用WebService接口时,抛出异常(Connection refused)。 但直接通过RealServer的IP调用WebService又是正常的,程序肯定没问题。
请专家帮忙分析一下,还需要什么信息我再贴。
我是在KVM虚拟机环境下搭建的LVS集群采用DR方式,现在client无法通过VIP来访问网页。 虚拟机所使用的网卡都是NAT模式, 不知道这个是不是导致网页无法访问的原因之一? client与realserver的三次握手都已完成,但是client发出get请求后,服务器却不会发出ACK应答,然后client就一直在TCP Retransmission的状态。 client ip是192.168.122.14 VIP是192.168.122.25 tcpdump结果见附件图片 大家帮我分析一下出了什么问题。
在ipvs中,调度器收到来自客户端的请求,能否获得这个请求的端口号?谢谢
我的环境: lvs+keepalived 都是DR模式
服务器IP挂了三个段: 1.1.1.1/255.255.255.224(外网) 2.2.2.2/255.255.255.224(外网) 3.3.3.3/255.255.255.192(外网) 4.4.4.4/255.255.255.0(内网)
挂载的VIP段有: 1.1.1.0/255.255.255.224(外网) 2.2.2.0/255.255.255.224(外网) 3.3.3.0/255.255.255.192(外网) 4.4.4.0/255.255.255.0(内网)
我发现只能挂20个VIP再多就挂不上了,不管是挂内网还是外网,用ip a查看都没有,日志里也没有add
在LVS真实服务器的lo网卡上配置vip,由于DR模式下,用户数据是要能够从真实服务器出去的,需要将用户配置的ACL规则同时部署在LVS虚拟服务器和所有LVS真实服务器,用户ACL规则部署时,VIP的网关为192.168.xxx.1,在往另外的realserver上部署用户ACL规则时,由于route表中不含xxx网段,ACL部署失败,造成用户数据进得来出不去,这个该如何处理?
新人求助一下。 用LVS搭建SSH服务的负载均衡。 目前采用NAT方式,一台服务器做router,运行lvs服务,另外两台是real server,暂且叫做a和b。 我尝试了rr、wcl、wrr策略,可以实现均衡的负载。但是,如果我手动重启其中一台,比如重启a,然后ssh vip的时候,如果恰巧轮转到a,那么就会卡住,直到报ssh time out。然后再ssh vip,由于轮询到了b,这时就正常登陆了。
在使用lvs实现ftp server负载时发现一个问题,如果ftp server不使用非21端口,控制连接可以建立,但是数据无法获取。
求助各位LVS大人,谢谢来帮忙!
架构: 用户 -------> 公网IP(硬件防火墙) -----> 公网IP(LVS: NAT模式、rr轮训) ----> 真实服务器
问题: 这样对LVS而言,看到的请求IP只有一个,就是硬件防火墙的公网Ip地址。 后端rs偶尔会有一台机器压力超高,是其他机器的3倍。
说明: 其中,硬件防火墙 ---> LVS : 是通过公网IP访问的, 硬件防火墙只有一台机器;
There are currently 0 users online.