Hardware-based Layer3 switch load balancing?

我讀了LVS相關的文章後,有一個疑問。就是即使用最快的VS-DR,所有inbound traffic還是需要由master那台機來做routing.換句話說瓶頸還是在master machine身上。舉個例, 如果一個大型forum需要另外建設一組server來應付attachment的上下載, 那cluster nodes用一張普通GbE, master machine用2張10GbE team起來分分鐘也不夠用。假如真的建起一組server, 兩台master(一台backup)有10GbE, 加上十台cluster node用GbE。有一天流量都是不夠應付需要添置器材, 第一件事是多買一張10GbE, 然後才是買多一台Server做node。成本非常高昂。
而我的想法是, 既然現在的L3 Switch能以hardware高速處理NAT的工作, 換句話說可以Forward TCP/UDP Connection。如果它也有能力做決定用哪個cluster node或者交由一台小server來做, scalability就大很多很多,情況就如附件所示。
如果我有10Gbps Internet流量壓力, 十台有GbE的node就好了。process request速度上肯定大幅提高, 但在成本上這樣好處不是很明顯。
但想想如果我有的是100Gbps Internet流量壓力, 我就不用去找兩台有能力處理100GbE的server, 亦不需要買100台Cluster。簡單的, 十台低階至中等的Server(你去看Intel Xeon E3-12xxV3的評分和價格你就明白, 這樣算得上高階的CPU, 整台Server不用USD$3000)再加十張10GbE就可以。10GbE即使再貴也貴不過那90台nodes的價格,而且這樣比100GbE master還反應要快。(當然你可以選擇10x10GbE nodes, 但那兩台master都要錢...而平價的10GbE L3 switch USD$2000都有)
當然這只是我的想像, 我不知道現實是否已有這樣的產品。而我最近也有留意OpenFlow -- 一個新的protocol。看來他可以做到類似由第一台server用software決定packs route去哪樣。但能否控制Layer3的東西就不得而知了, 亦不知它的條件是如何訂立。
各位大大對我的idea有何想法?

[inline:1]
[inline:2]
[inline:3]
[inline:4]

附件大小
Image icon 1.png432.14 KB
Image icon 2.png528.53 KB
Image icon 3.png563.72 KB
Image icon 4.png669.72 KB

Forums:

Kick the tires and light the fires, problem ofllicafiy solved!

None can doubt the veaicrty of this article. http://hjjsxddwei.com [url=http://utrylidqa.com]utrylidqa[/url] [link=http://lnrfmtqsaj.com]lnrfmtqsaj[/link]

I was struck by the hosntey of your posting http://pastffitr.com [url=http://sgcedd.com]sgcedd[/url] [link=http://xdfdgm.com]xdfdgm[/link]