这里是LVS集群项目的中文社区。欢迎大家在这里讨论和交流LVS集群的安装、使用、维护与开发,以及相关技术,帮助完善LVS的中文文档。也欢迎您在这里建立您的博客!
我采用的是LVS/DR模式
这是DR服务器抓的包
[root@localhost lvs]# tcpdump udp port 53 tcpdump: verbose output suppressed, use -v or -vv for full protocol decode listening on em1, link-type EN10MB (Ethernet), capture size 65535 bytes 16:40:39.691129 IP 222.162.25.212.51560 > 192.168.1.80.domain: 28+ A? www.8080.net. (30) 16:40:39.691146 IP 222.162.25.212.51560 > 192.168.1.80.domain: 28+ A? www.8080.net. (30) 16:40:39.694922 IP 222.162.25.212.51561 > 192.168.1.80.domain: 29+ AAAA? www.8080.net. (30)
Hi,请教同一套LVS集群是否支持同时设置多个VIP地址?如何设置?暂未找到相关资料,如果各位有相关的资料,也请贴上来讨论讨论,多谢。
现在我有两条服务器,s1和s2,s1即是LB master,也是realserver;s2即是LB backup,也是realserver。 问题是,现在尽管两台服务器分别在master和backup状态,但是都有流量。 我想问,比如s1具有对外的vip,获得了client端的请求,转发给s2,这时候s2接收到请求后有没有可能不是web服务在处理,而是又被处于backup状态的LB处理转发了一次?
我现在的情况是heartbeat从节点不接管lvs主节点的任务,在内网环境下是可以接管的,服务器和访问客户端都在一个网段中,客户端访问是可以实现主节点宕机后从接管,现在服务器托管到idc后,已经更改了所有该改的配置,在外网访问时候主节点宕机,重节点不接管外网访问的任务?不知道为什么,第二个问题,我是用串口线连接的,看日志里面说的是
使用lvs+keepalived+bind,发现在client端打压力测试时,一旦将一台real_server 的named down掉,这台client就卡住了,很慢才能解析,过几分钟后才能真正踢掉down的real server,我的配置如下:
vrrp_instance VI_1 { state MASTER interface eth0:0 virtual_router_id 51 priority 150 advert_int 3 authentication { auth_type PASS auth_pass xxxxxx } virtual_ipaddress { 10.11.194.221 } }
virtual_server 10.11.194.221 53 { delay_loop 6 lb_algo rr lb_kind DR
ipvs我现在打算去进行研究源码和进行二次开发,但是ipvs大家是如何进行调试和编译的呢?我之前用gdb可以搞如nginx等,但是ipvs是在内核中的,大家是如何搞的呢?如何进行调试跟踪和编译呢?我不想每次搞都编译一次系统内核
我也一样有此需求,内部测试可以正常访问Realserver的测试web页面。可到生产环境中,上线不到20分钟 我前端防火墙CPU就冲高到60%,用测试脚本访问VIP,发现总是延时在3~5s,页面访问很慢。寻明白人指点迷津,我的配置如下: ######keeplived配置 ! Configuration File for keepalived global_defs { router_id LVS_MASTER }
vrrp_sync_group VG1 { group { VI_1 } } vrrp_instance VI_1 { state MASTER interface bond0 lvs_sync_daemon_inteface bond0 virtual_router_id 51 priority 100 advert_int 1 authentication {
现在打算研究LVS的源码,但是下载ipvsadm这个发现应该是一个管理工具,那么对于如内部实现的代码实现部分是从哪里去分析呢?我看在linux内核的\linux-2.6.35.13\net\netfilter\ipvs目录下,有些ipvs的代码,不知道是不是这块对于LVS的内容进行了实现,请大家给予些意见!
相关链接: http://zh.linuxvirtualserver.org/node/2678
背景情况: 由于今年对互联网整顿比较严,我原来所在的公司,有一些域名没办法通过白名单,无法再国内机房生存了.
需求: 现在有个别站点在国外放着,但是他们跟我说网站打开速度很慢,有没有办法快一些.
具体实现: 我找到一种方式,也许会快一些,也许不会,但是总是可以一试. lvs 的 tun 模式, 将 lvs load balance server 放在国外, 将 backend server 放在国内(所有数据)
问题描述: VIP 192.168.10.37:9100欲转发至192.168.10.40:9100,192.168.10.40:9101,192.168.10.40:9102,192.168.10.41:9100,192.168.10.41:9101,192.168.10.41:9102,配置文件如下:
virtual_server 192.168.10.37 9100 { delay_loop 6 lb_algo rr lb_kind DR persistence_timeout 20 protocol TCP real_server 192.168.10.40 9100 { weight 100 TCP_CHECK { connect_timeout 3 nb_get_retry 3 delay_before_retry 3 connect_port 9100 } } real_server 192.168.10.40 9101 { weight 100 TCP_CHECK { connect_timeout 3 nb_get_retry 3 delay_before_retry 3 connect_port 9101 } }
There are currently 0 users online.