这里是LVS集群项目的中文社区。欢迎大家在这里讨论和交流LVS集群的安装、使用、维护与开发,以及相关技术,帮助完善LVS的中文文档。也欢迎您在这里建立您的博客!
章博士你好,我用lvs/dr模式配置了一个nfs server的集群服务器,现在是实验阶段,就用了一个lvs server.现在已经能够在client端mount nfs server 上export的文件夹,在不同的client上mount,能够测试到lvs能够均衡mount请求到不同的real server.现在的问题是,在client端经常出现stale nfs file handle的提示,这个问题怎么解决啊?
最近搭建了一个LVS平台,可是在ipvsadm -L -n时结果:(DR模式)
[root@LVS ~]# ipvsadm -L -n IP Virtual Server version 1.2.1 (size=4096) Prot LocalAddress:Port Scheduler Flags -> RemoteAddress:Port Forward Weight ActiveConn InActConn TCP 210.13.75.154:80 wrr -> 10.4.0.8:80 Route 2 11 8074 -> 10.4.0.6:80 Route 2 489 8058
InActConn却居高不下,ActiveConn很少,访问网站非常的慢,有没有同学遇到类似的问题,分享下经验,非常感谢
请问有那位大哥曾经以NS2的网路模拟软件实作过LVS的架构,或是有相关信息可供我参考,感谢!!!!!!
想使用红帽的Piranha,安装系统时能够直接装上吗? 需要选择哪些安装选项啊?
最近才开始做lvs-dr的实验,通过网上的一些例子进行搭建,然后结果却显示的是route weight 1 actigveconn 0 inactconn 0 不知道是怎么回事,希望大家帮忙看下
我的LD是Ubuntu 10.10 两台rs是xp ld ip:192.168.0.50 vip:192.168.0.100 rip:192.168.0.11 192.168.0.12 ld配置如下: sudo ifconfig eth0:0 192.168.0.100 netmask 255.255.255.255 broadcast 192.168.0.100 sudo route add -host 192.168.0.100 dev eth0:0 sudo ipvsadm -A -t 192.168.0.100:80 -s rr sudo ipvsadm -a -t 192.168.0.100:80 -r 192.168.0.11 -g
如题,我有两台双网卡的机器,系统是centos,我现在要配置lvs dr+keeplive来实现双机的热备和对以下real ser的负载。我看来论坛前10篇的所有帖子,但是现在还是有个疑问: vip从字面上来说是虚拟ip,但是我有双网卡,我可以一个网卡配vip,一个配内网吗?还有就是vip一定是公网ip,但是real ser和lvs上的vip是同一个ip地址,这样在一个网段下会不会有问题,这个lvs是怎么解决的,请教!!! 寻合作部署如下系统:
请问LVS中有没有自己的包缓冲队列,还是完全使用netfilter来进行包的缓冲?
由于特殊硬件平台限制,需要将ipvs的代码,移植到用户空间,当然是按照在内核态ipvs的整体框架来重新写一套。 遇到一个问题,由于配置ipvs的用户空间工具是ipvsadm,而对应控制内核态的部分是通过setsockopt()与用户空间来进行交互, 如果移植到用户空间,ip_vs_ctl这部分代码,将用啥思路来实现。还望高手指点下。
最近尝试了一下lvs集群,在LVS-DR模式下已经可以运行,而在使用LVS-TUN模式下,跨网段却怎么也调不通,而且也不知道如何从哪一方面跟踪问题,不得已请求援助,请高手指点,先谢谢了!:) 一.我的环境是Suse linux 10(Linux linux-105 2.6.16.46-0.12-bigsmp ),先用两台机器测试,网络环境如下: Director: 58.1.32.43 255.255.255.192 eth0 VIP 58.1.32.31 58.1.32.192 RealServer: 58.1.32.105 255.255.255.192 eth0 二.负载均衡器配置文件如下: #!/bin/bash VIP1=58.1.32.31
LVS DR client请求的IP和响应的IP不一样,那么响应client的数据包会不会被client端防火墙的策略给阻挡,导致session超时
There are currently 0 users online.