这里是LVS集群项目的中文社区。欢迎大家在这里讨论和交流LVS集群的安装、使用、维护与开发,以及相关技术,帮助完善LVS的中文文档。也欢迎您在这里建立您的博客!

请问如果用tun/dr模式配置服务器,怎么才能证明是真实服务器rs返回的数据包呢?

又是菜鸟问题,不好意思。

我初步设置好了一个DR模式的集群,

但是,我怎么能证实客户端看到(收到)的数据包就是真实客户端送回来的呢?

因为我在windows下,用spynet监听网络。

看到的来回来去的数据都是客户端和那个虚拟ip做的。

我估计可能是应该在调度器和真实服务器那边查看结果。

可是怎么看呢?

btw:
我已经用ipvsadm -Lcn看到了从调度器调度的数据,
基本可以证明数据是被调度了。
(其实是废话,因为我确实看到了不同真实服务器上的不同页面)

Forums:

有关lvs真实服务器CPU占用率达到100%

我现在建好了一个集群,因为是测试,只用了三台机,是基于linux的,由heartbeat+lvs+mon组成,已经在测试中了。现在我们担心一个问题,如果虚拟服务器分配一个请求给一个真实服务器,而这个请求的负载比较大,真实服务器在处理请求的时候使自已的CPU占用率达100%,这个服务器就会长时间停止响应,这样就影响了客户端的请求。

> 我想请教你一下,是否在LVS中有相应的资源管理软件,可以避免这种情况。我知道在并行计算中有一个资源管理和队

Forums:

lvs的转发问题

用ipvsadm 查看的结果如下

IP Virtual Server version 1.2.0 (size=4096)
Prot LocalAddress:Port Scheduler Flags
-> RemoteAddress:Port Forward Weight ActiveConn InActConn
TCP 192.168.1.10:http wrr persistent 300
-> 192.168.1.11:http Route 1 71636 1145
-> 192.168.1.12:http Route 1 60934 365
-> 192.168.1.13:http Route 1 93458 395

这里的 InActConn 是代表有错误的连接吧,怎么会有这么多有错的.大家的情况是怎样的.

Forums:

KTCPVS的调度算法

KTCPVS的负载均衡调度是以TCP连接为粒度的。同一用户的不同连接可能会被调度到不同的服务器上,所以这种细粒度的调度可避免不同用户的访问差异引起服务器间的负载不平衡。

在调度算法上,我们先实现了加权最小连接调度(Weighted Least-Connection Scheduling),因为该算法都较容易实现,便于调试和测试。另外,KTCPVS交换机网络配置比Layer-4交换机的简单,KTCPVS交换机和服务器只要有网络相连,能进行TCP/IP通讯即可,安装使用比较方便,所以在整个系统规模不大(例如不超过10个结点)且结点提供的服务相同时,可以利用以上算法来调度这些服务器,KTCPVS交换机仍是不错的选择。同时,在实际的性能测试中,这些调度算法可以用作比较。

请教关于金融系统是否适合使用LVS

博士你好!
看了您的LVS的介绍,感觉这个系统对于金融系统的大规模接入也很适合。现在的金融系统大部分都在走大集中化的路线,物理上逻辑上都开始集中。主机系统是集中了,但各个网点,交易渠道还在大面积的扩展,在这个背景下,接入是个大问题了。现在的解决方案都是各网点分组接入或者架设前置机来分摊主机压力。但这种方式还是需要主机的处理能力要求比较高,而且不便于管理,网点对主机的接入点不一致等问题。

一直没有看到LVS在这方面的应用和成功案例,不知LVS是否在这个行业适用,或者有什么安全或稳定性方面的限制?

Forums:

ifconfig查看多了几个IP地址

各位好!

我配置了heartbeat+ldirector。配置了两个VIP,对应不同的域名。vip1=eth0:0 192.168.10.67 vip2=eth0:1 192.168.10.68 测试heartbeat+ldirector都在正常。
通过ifconfig查看:多了eth0:2,eth0:3,且广播地址,子网掩码变了。

eth0 Link encap:Ethernet HWaddr 00:30:48:56:7D:CB
inet addr:192.168.10.109 Bcast:192.168.10.255 Mask:255.255.255.0
UP BROADCAST RUNNING MULTICAST MTU:1500 Metric:1
RX packets:917182 errors:0 dropped:0 overruns:0 frame:0
TX packets:536539 errors:0 dropped:0 overruns:0 carrier:0

Forums:

请教一个关于TUN的问题

首先感谢章老师的贡献,感觉LVS方案很爽,特别是TUN;

我想请教一个问题:
我现在用两台PC机作LVS/TUN的实验,一台机子作LB,一台机子作RS,刚开始的时候RS上只有一张Intel100M网卡,100M的出口,FTP能够跑满100M出,后来我想增加出口带宽,于是又加了一张Intel100M网卡,各用一条独立的100M出口,各用独自的ip,奇怪的是FTP还是只能跑满100M,不是200M?
2.4内核,15个客户端,连接没有问题,下载没有问题,LB和RS的系统负载也不大,流量监测发现eth0和eth1出口总是每个四五十兆,加起来100M,有点糊涂了,难道需要对tunl0或者ethx做什么设置?PCI32B/33M应该没到头啊,是不是跟linux本身有关啊?

Forums:

真实服务器不可用了,而调度器却继续转发请求

问题:
真实服务器不可用了,而调度器却继续转发请求

环境:
我使用lvs构建了一套DR方式的web集群,使用ldirectord软件来检查真实服务器是否可用;调度算法使用lblc,ldirectord软件的配置如下:
virtual=20.77.150.119:8102
real=20.77.150.122:8102 gate
# real=20.77.150.5:8102 gate
service=http
request="/xrose/.testpage.jsp"
receive="Test Page"
scheduler=lblc
persistent=36000
netmask=255.255.255.0
protocol=tcp

当真实服务器20.77.150.119:8102出现异常时,ldirectord软件也及时发现修改了服务器的权重为0,ipvsadmin -l 结果如下:

Forums:

请问怎么编译ipvsadm呀?

我用的是redhat linux AS 4
内核是2.6.9
那个miniHOWTO上说
从ftp.kernel.org得到的2.6版本之后的内核已经有了ip_vs的补丁。
我的内核肯定不是这个网站上的了。

那么请问
问题1:
我还需要下载并重新编译新的2.6.10的内核吗?

我在网站上下载了
ipvsadm-1.24-6.src.rpm
文件,打开到一个目录后,
直接运行make,
出了很多错。

请问问题2
应该怎么编译这个源代码呢?
是不是需要那个ftp.kernel.org网站上的新内核才行呀?

谢谢

Forums:

关于LVS director节点connection sync的问题,该怎么解决?

问题:我创建了一个Local环境下的测试系统用来测试HTTP和Mysql集群。但是遇到了LVS Director节点connection sync的问题。该问题已经解决:)

环境:
LVS Director:
VIP: 192.168.100.1:80 for HTTP集群
VIP: 192.168.100.1:3306 for Mysql集群
节点1:lvsdirector, IP地址是192.168.100.20 (该节点作为master用)
节点2:sqlnode1,IP地址是192.168.100.30 (该节点作为backup节点,也作为SQL Node用,不要被节点名字疑惑)
Real Server:
Real Server 1: testnode, IP地址是192.168.100.10 (该节点同时运行HTTP和Mysql服务)

Forums:

页面

Subscribe to LVS中文站点 RSS
randomness