请教一个关于TUN的问题

首先感谢章老师的贡献,感觉LVS方案很爽,特别是TUN;

我想请教一个问题:
我现在用两台PC机作LVS/TUN的实验,一台机子作LB,一台机子作RS,刚开始的时候RS上只有一张Intel100M网卡,100M的出口,FTP能够跑满100M出,后来我想增加出口带宽,于是又加了一张Intel100M网卡,各用一条独立的100M出口,各用独自的ip,奇怪的是FTP还是只能跑满100M,不是200M?
2.4内核,15个客户端,连接没有问题,下载没有问题,LB和RS的系统负载也不大,流量监测发现eth0和eth1出口总是每个四五十兆,加起来100M,有点糊涂了,难道需要对tunl0或者ethx做什么设置?PCI32B/33M应该没到头啊,是不是跟linux本身有关啊?
看还有什么我没有说清楚的大家尽管问,我会随时来补充的;

本来跑上来想查mailist的,发现新大陆了,就麻烦大家了^_^

Forums:

我想问一下你的交换机总带宽是多少,出口带宽是多少?

系统的网络连接/拓扑是怎么样的?系统配置如何?在eth0和eth1上是否一起作bonding来提高网卡的总体带宽?还是eth0和eth1分别连接不同的出口网络?

两张网卡没有用Bonding,eth0用网关*.*.170.1出,eth1用*.*.171.1出,两张卡分别接入华为3550,向上接华为6506,这几个交换机总带宽是应该不是只有100M,因为流量监测都能看到上几百兆,

另外想请教一下,LVS对ICMP怎么处理的呢?特别是源抑制ICMP,在FTP应用时似乎是比较重要的
还有就是感觉LVS方案对解决负载均衡很不错了,但服务器之间数据一致性弄起来很麻烦,特别是像FTP这种数据量很大的东东,想用GFS,但又怕性能受影响

node1:~# ifconfig
eth0 Link encap:Ethernet HWaddr 00:D0:B7:2B:D3:30
inet addr:*.*.170.248 Bcast:*.*.170.255 Mask:255.255.255.0
UP BROADCAST RUNNING MULTICAST MTU:1500 Metric:1
RX packets:15507439 errors:0 dropped:0 overruns:301 frame:0
TX packets:87797178 errors:0 dropped:0 overruns:0 carrier:0
collisions:0 txqueuelen:2000
RX bytes:2891573988 (2.6 GiB) TX bytes:413674911 (394.5 MiB)
Interrupt:11

eth1 Link encap:Ethernet HWaddr 00:D0:B7:2B:C8:D7
inet addr:*.*.171.248 Bcast:222.28.171.255 Mask:255.255.255.0
UP BROADCAST RUNNING MULTICAST MTU:1500 Metric:1
RX packets:23950270 errors:0 dropped:0 overruns:0 frame:0
TX packets:17844565 errors:0 dropped:0 overruns:24 carrier:0
collisions:0 txqueuelen:2000
RX bytes:3427721421 (3.1 GiB) TX bytes:3733564518 (3.4 GiB)
Interrupt:10 Base address:0x2000

tunl0 Link encap:IPIP Tunnel HWaddr
inet addr:*.*.170.250 Mask:255.255.255.255
UP RUNNING NOARP MTU:1480 Metric:1
RX packets:15230255 errors:0 dropped:0 overruns:0 frame:0
TX packets:0 errors:0 dropped:0 overruns:0 carrier:0
collisions:0 txqueuelen:0
RX bytes:689200130 (657.2 MiB) TX bytes:0 (0.0 b)

lo Link encap:Local Loopback
inet addr:127.0.0.1 Mask:255.0.0.0
UP LOOPBACK RUNNING MTU:16436 Metric:1
RX packets:253 errors:0 dropped:0 overruns:0 frame:0
TX packets:253 errors:0 dropped:0 overruns:0 carrier:0
collisions:0 txqueuelen:0
RX bytes:27992 (27.3 KiB) TX bytes:27992 (27.3 KiB)
node1:~#

一台服务器都达到100Mbps的网络流量,有可能服务器在某方面已经达到瓶颈,而非网卡。瓶颈可能在Disk I/O或者中断处理数目等,你可以考虑用"vmstat 1"等工具查查,看单台服务器的性能是否有进一步优化空间。

另一方面,你可以考虑再加一些服务器,看系统的整体吞吐率是否有提高?

LVS中的ICMP处理请参加手册中ICMP处理

多谢章老师
还在查原因,希望有人遇到过相似问题请赐教

randomness