Quando stavo scrivendo il + NEC IBM OpenFlow prove , ho capito un caso perfetto uso per OpenFlow controllata inoltro di rete: SMB data center che necessitano di meno di qualche centinaio di server fisici - che si tratti bare-metal hypervisor server o host (cappello Suggerimento Per Brad Hedlund per me spingendo nella giusta direzione, qualche tempo fa)
Come ho scritto prima, l'inoltro della rete OpenFlow controllato (ad esempio: NEC, BigSwitch) sperimenta una serie completamente diversa di problemi di OpenFlow controllato bordo (esempio: Nicira o switch virtuale XenServer controller ).
Il Sogno
Come potete immaginare, è estremamente semplice da configurare un OpenFlow interruttore controllato: configurare il proprio indirizzo IP, la gestione VLAN, e l'indirizzo IP del controller, e lasciare che il controllore faccia il resto.
Una volta che i fornitori di networking capire "i dettagli", si potrebbe utilizzare le porte dedicate per la gestione out-of-band OpenFlow piano di controllo (simile a quello cheQFabric sta facendo oggi ), DHCP per assegnare un indirizzo IP allo switch, e un nuovo DHCP opzione per raccontare l'interruttore quando la verifica sia. Il server DHCP ovviamente eseguito sul controller OpenFlow, e l'intera infrastruttura di controllo aereo sarebbe completamente isolato dal mondo esterno, il che rende abbastanza sicuro.
Il costo hardware aggiuntivo per la complessità significativamente ridotto (no-switch per la configurazione e una gestione unica / indirizzo IP SNMP): due interruttori stupide 1GE (per rendere la configurazione ridondante), si spera in esecuzione MLAG (per sbarazzarsi di STP).
Infine, supponendo che la virtualizzazione dei server è il caso d'uso più comune in un centro dati SMB, si potrebbe ben couple OpenFlow controller con vCenter di VMware, e lasciare che vCenter configurare l'intera rete:
- CDP o LLDP sarebbero stati utilizzati per scoprire server-to-switch connettività;
- OpenFlow regolatore sarebbe automaticamente scaricare informazioni sul gruppo porta da vCenter e automaticamente VLAN fornitura di server-to-switch link.
- Andando un ulteriore passo in avanti, OpenFlow controllore potrebbe configurare automaticamente i canali delle porte statiche in base alle impostazioni di bilanciamento del carico configurate sui gruppi portuali.
Risultato finale : decentemente grande network layer-2 senza STP, multipathing automatico e regolazione automatica ai cambiamenti VLAN, con un'unica interfaccia di gestione, e il numero minimo di parti in movimento. Non è fantastico?
Auto-configurazione del data center senza spanning tree? Certo, perché no ( Relativity da MCEscher )
Scenario # 1 - GE-attached server
Se si decide di utilizzare GE-attached server ed eseguire macchine virtuali su di essi, sarebbe saggio usare da quattro a sei uplink per hypervisor host (due per i dati VM, due per le attività del kernel, eventualmente ulteriori due per traffico di storage iSCSI e NFS ).
Si potrebbe facilmente costruire un tessuto GE Clos utilizzando switch da NEC America:PF5240 (switch ToR) come nodi foglia (che avresti avuto quasi nessun oversubscription con 48 porte GE e 4 x 10GE uplink) e PF5820 (10 interruttore GE) come colonna vertebrale nodi e punto di interconnessione con il resto della rete.
Utilizzando solo due PF5820 interruttori della colonna vertebrale si potrebbe ottenere più di 1200 le porte del server 1GE, sufficiente per connettersi da 200 a 300 server (circa 5000 VM).
Che ci si vuole mantenere il numero di switch controllata mediante il controllore OpenFlow basso per evitare problemi di scalabilità. NEC afferma che può controllare fino a 50 switch Tor con un gruppo di controllo; sarei un po 'più conservatore.
Scenario # 2 - 10GE server collegati
Le cose diventano peloso, se si desidera utilizzare 10GE-attached server (o, per dirla più diplomaticamente, IBM e NEC non sono ancora pronti a gestire questo caso d'uso):
- Se si desidera vera stoccaggio a convergere con DCB, è necessario utilizzare IBM switch (NEC non ha DCB), e anche allora non sono sicuro di come avrebbe funzionato con DCB OpenFlow.
- PF5820 (NEC) e G8264 (IBM) hanno uplink 40GE, ma devo ancora vedere un OpenFlow abilitato interruttore 40GE con densità di porte sufficiente a servire come nodo colonna vertebrale. Al momento, sembra che fasci di uplink 10GE sono la strada da percorrere.
- Sembra che (secondo le schede tecniche, ma potrei sbagliarmi) NEC supporta 8-way multipathing, e avremmo bisogno di almeno 16-way multipathing per ottenere oversubscription 3:1.
In ogni caso, assumendo tutti i dossi eventualmente fatevi risolti, si potrebbe avere una rete molto facile da gestire il collegamento a poche centinaia di 10GE-attached server.
Sarà mai accadere?
Rimango scettico, soprattutto perché ogni vendor sembra ossessionato cloud computing e zettascale data center, ignorando metà scala del mercato ... ma ci potrebbe essere per nuocere. Questa idea avrebbe più senso se saresti in grado di acquistare un centro preconfezionato di dati (si pensi blocco VCE) a un prezzo ragionevolmente basso (per rendere più attraente per i clienti SMB).
Alcune aziende hanno tutti i componenti di uno avrebbe bisogno di un centro dati SMB (Dell, HP, IBM), e Dell potrebbe essere solo in grado di tirare fuori (mentre HP sta dicendo a tutti come faranno cambiare per sempre il settore del networking ). E ora che ho citato Dell: come sulla configurazione del data center attraverso una interfaccia user-friendly web, e lo hanno spedito alla vostra posizione in poche settimane.
Nessun commento:
Posta un commento
Nota. Solo i membri di questo blog possono postare un commento.