E 'chiaro che i fornitori principali hypervisor considerare MAC-over-IP per essere il finale di partita per le reti virtuali , sono ancora litigando su la migliore tecnologia e il posizionamento corretto di bit nelle intestazioni diverse, ma il quadro generale è cristallina. Una volta che arrivare (solving "pochi" problemi non così banali sulla strada), e convincere tutti di utilizzare appliance virtuali , la rete dovrà provvedere al trasporto IP senza soluzione di continuità, niente di più.
In quel momento, su larga scala ponte sarà finalmente una storia (fino a quando legrandi oscillazioni del pendolo strato ancora una volta ) e ci si deve chiedere se c'è un futuro per i data center TRILL, SPB, FabricPath e altri vendor specifici derivati.
Quanto è grande Large-Scale comunque?
La maggior parte dei clienti desiderano disporre di soluzioni di bridging su larga scala per sostenere la mobilità VM. Lo stato attuale del mercato hypervisor (vSphere 5, giugno 2012) è il seguente:
- 32 hypervisor host in un cluster ad alta disponibilità (dove le macchine virtuali si muovono automaticamente in base alle variazioni di carico);
- 350 ospiti in uno switch virtuale distribuita (VDS), non è possibile spostare una VM in esecuzione tra due switch virtuali distribuiti, e con centinaia di host vSphere con lo switch virtuale classico è un incubo di gestione.
La dimensione massima ragionevole di una grande soluzione ponte è quindi di circa 700 porte 10GE (non penso che ci sono troppe applicazioni che sono in grado di saturare più di due uplink 10GE server).
Assumendo un tessuto Clos con due nodi della colonna vertebrale e 03:01 a causa delle numerosissime richieste nodi foglia, è necessario ~ 120 non-blocking line-rate porte 10GE sullo switch colonna vertebrale (o quattro interruttori dorso e 60 porte 10GE o 16 porte 40GE ) ... l'unico requisito è che la STP non deve bloccare tutti i collegamenti, che possono essere facilmente risolti con chassis multi-link aggregation. Ci sono almeno cinque principali dati fornitori centro di commutazione con prodotti corrispondenti a questi requisiti.
Ci sono scenari in cui si ha realmente bisogno più grandi domini di bridging (esempio: server fisici dei clienti del link con le loro macchine virtuali per migliaia di clienti), se il vostro data center rete è uno di loro, si dovrebbe parlare di Nicira o attendere Cisco VXLAN-to-VLAN gateway. D'altra parte, l'implementazione su larga scala ponte per supportare cluster HA tese non ha molto senso .
C'è bisogno di TRILL?
Come avete visto nella sezione precedente, è possibile creare layer-2 tessuti in grado di soddisfare ragionevoli esigenze di vita reale con foglia-and-colonna vertebrale utilizzando l'architettura multi-chassis aggregazione di link (MLAG) tra foglia e interruttori della colonna vertebrale. E 'TRILL così inutile?
In realtà, non lo è. Ogni soluzione è una sola MLAG kludge fragile che possono potenzialmente causare uno split-brain scenario, e ogni MLAG-bug relativo software potrebbe avere un impatto catastrofico (VSS o VPC qualcuno bug?). E 'molto più semplice (e più affidabile) per accendere il layer-2 di rete in una rete un po 'indirizzato il trasporto-frame MAC e si affidano a prova di tempo caratteristiche dei protocolli di routing (IS-IS in questo caso particolare) per risolvere guasti. Dal punto di vista tecnologico, TRILL ha senso finché non ci liberiamo delle VLAN e passare al MAC-over-IP.
TRILL è così terribile alcuni produttori vogliono far pagare extra per il privilegio di usarlo
Rispetto al MLAG, TRILL riduce la complessità della rete e rende il layer-2 tessuto più robusto ... ma non sono sicuro che dovremmo pagare un extra per questo (sto guardando a voi, Cisco). Dopo tutto, se i risultati soluzione di un particolare fornitore di una rete più stabile, potrei comprare attrezzi più dello stesso fornitore, e ridurre i costi di supporto.
Carica un costo di licenza separata per TRILL (in realtà FabricPath) solo potrebbe convincermi a restare con MLAG + STP (dopo tutto, non funziona la maggior parte del tempo), rendendo potenzialmente infelice (quando smette di funzionare). Potrei anche cominciare a considerare i fornitori alternativi, perché ogni singolo fornitore là fuori supporta MLAG + disegni STP.
Server rivolto MLAG - l'elefante nella stanza
Se il vostro data center funziona esclusivamente su VMware, non hai bisogno di server-di fronte aggregazione dei link, dopo tutto, la configurazione del GAL sul commutatore statico e IP-based hash su vSphere è un ripiego che può facilmente rompersi.
Se si utilizza un altro hypervisor o bare metal server, è possibile utilizzare MLAG LACP e proprio per ottimizzare l'inter-VM o flusso di traffico tra-server .
Purtroppo, Brocade è l'unico vendor che integrata TRILL-like Fabric VCS con MLAG . È possibile utilizzare MLAG FabricPath con la Cisco, ma sono totalmente separati - MLAG richiede VPC. Non abbiamo davvero guadagnato molto, se siamo sbarazzati di MLAG sul link inter-switch sostituendo STP con TRILL, ma è rimasto bloccato con VPC per sostenere MLAG sul server-to-switch link.
Conclusioni
Supponendo che non siete ancora pronti a scendere la VXLAN / NVGRE percorso, TRILL è sicuramente una tecnologia da prendere in considerazione, solo per sbarazzarsi di STP e MLAG combo. Tuttavia, attenzione:
- A meno che non si sta eseguendo VMware vSphere o per simili rete compromissione del sistema operativo che non ha mai sentito parlare di LACP, avrete probabilmente bisogno di multi-chassis GAL per motivi di ridondanza ... e quindi Brocade Fabric VCS è l'unica opzione se non si vuole rimanere bloccato con VPC.
- Anche durante l'esecuzione TRILL nella spina dorsale, sarei ancora eseguire l'intera gamma di funzionalità STP sul server rivolto porte per prevenire potenziali loop ponte creati dal server fisico o amministratori incapaci VM (Alcune persone pensano chesenso ponte virtuale tra due schede NIC in un VM normale ). Cisco è l'unico fornitore che offre TRILL-come tessuto e STP nello stesso prodotto allo stesso tempo (mentre gli switch di Brocade VDX funzionano molto bene con STP, che iniziano facendo finta che non esiste il momento in cui si configura tessuto VCS ).
Hmm, sembra che non ci sono buone scelte, dopo tutto. Forse si deve ancora attendere un po 'prima di saltare a testa alta nelle torbide acque TRILL.
Nessun commento:
Posta un commento
Nota. Solo i membri di questo blog possono postare un commento.