略去导航.
主页
这里是LVS集群项目的中文社区。欢迎大家在这里讨论和交流LVS集群的安装、使用、维护与开发,以及相关技术,帮助完善LVS的中文文档。也欢迎您在这里建立您的博客!

求助lvs Host name conflict, retrying with <linux-2389> Withdrawing address record for egistering new address record for

lvs脚本如下
==========================================================================
#!/bin/bash
# description: start LVS of DirectorServer
#Written by :NetSeek
#http://www.linuxtone.org
GW=192.168.0.1

# website director vip.
WEB_VIP=192.168.0.33
WEB_RIP1=192.168.0.17
WEB_RIP2=192.168.0.11
. /etc/rc.d/init.d/functions

logger $0 called with $1

case "$1" in

start)
# Clear all iptables rules.
/sbin/iptables -F
# Reset iptables counters.
/sbin/iptables -Z
# Clear all ipvsadm rules/services.
/sbin/ipvsadm -C

求助LVS关于GRE协议支持问题

使用过程中发现LVS不支持PPTP的VPN,后来在内核代码中发现LVS没有对GRE封装的支持。求哪位大神改写LVS内核代码支持GRE协议。

求助!!LVSDR模式,添加ActiveMQ服务,服务异常

将activemq的61616端口添加至lvs中,可以通过虚拟地址端口号访问activemq,但是activemq抛异常如下:
2015-04-13 14:44:34,209 | WARN | Transport Connection to: tcp://192.168.48.179:52895 failed: java.net.SocketException: Connection reset | org.apache.activemq.broker.TransportConnection.Transport | ActiveMQ Transport: tcp:///192.168.48.179:52895@61616

请问各位高手们,LVS的VIP的一个端口能不能对应一个realserver的同一个应用的不同端口呢,以提高一台realserver的并行使用效率。

如题。我想在一个realserver上的同一个应用开多个进程,指定不同的端口,但是对外的vip的端口一样,以提高一台realserver的并行使用效率。

类似配置如下?
virtual_server 172.16.3.199 80 {
...

real_server 172.16.3.92 80 {
weight 1

}

real_server 172.16.3.92 81 {
weight 1

}

real_server 172.16.3.92 82 {
weight 1

}
}

希望各位高手解惑,谢谢。

LVS+Keepalived搭建集群实验环境

我在VMWare下有四台Linux虚拟主机,两台是web主备,两台是lvs主备。
keepalived我已经搭建好了,也可以正常使用,realserver的配置文件也参考书籍写出来了。
两台主备web服务器可以分别访问了,但是就是不同通过VIP访问web服务,可能是哪些原因?

LVS-V3支持普通网卡

阿里的LVS-V3,即master分支,需要万兆网卡支持flow director支持,把local address分配到各个cpu上去的
比如192.168.0.100,cpu数量16, 就分配到cpu=100%16,每个cpu至少分配一个local address

为了支持没有flow director的网卡,增加RPS framework来实现类似功能
https://github.com/jlijian3/LVS

打开rps即可运行在普通网卡上
echo 1 > /proc/sys/net/core/rps_framework

请教个问题,DR模式下,master出现故障,backup抢占IP,之后master恢复,IP被master抢回,但backup上还有ActiveConn连接数

hi
我用两台机分别做keepalived的master和backup
master的系统是centos6,backup的系统是centos7
master的priority为150,backup的priority值为140
现在遇到个现象:当我的master出现故障后,vip会被backup抢占。之后master恢复了,vip被master抢占回来。 这个时候我的理解是backup上ActiveConn及InActConn的数据应该都降为0,但查看后发现backup上的ActiveConn的数值仍然有,并且和master的数值差不多。这是为什么?

求助:在DR模式下负载调度服务器上已经不存在连接且客户端已断开但是在realserver上执行netstat -an|grep port 依然存在客户端cip到vip链接状态为established的问题

各位大牛有没有遇到这样的问题:
在DR模式下负载调度服务器上已经不存在连接且客户端已经确认断开连接但是在realserver上执行netstat -an|grep port 依然存在客户端cip到vip链接状态为established的这类连接问题,在线等!希望高手指点

ubuntu12.04_x64系统。请问如何编译加载fullnat的toa模块。请问是否需要重新编译内核?

我的操作系统ubuntu12.04_x64系统。想添加fullnat的toa模块。在这台服务器的前端已经装有一台机器装了fullnat(centos系统)。不知道ubuntu是如何进行内核编译还有加载ota模块的。请高手指教。

DR模式下,交换机MAC地址表问题

请教大家一个问题,在LVS-DR模式下,realserver以VIP做为源地址,以本身MAC作为源MAC 向client应答时,会不会更新上层交换机里的ARP地址表,一旦更新ARP地址表,client下一次请求VIP就不会l落到DR上了,是不是这样的? (client\Realserver和DR假定在同一个交换机下)