banner
Centro notizie
Componenti di prim'ordine, gestione precisa della qualità.

Ethernet da 100 Gbps

Aug 19, 2023

Hai bisogno di Ethernet a 100 Gbps? La vera domanda sembra essere se si è disposti a pagare per questo e, data la crescita del traffico all'interno del datamcenter, se è inevitabile.

Godetevi questo articolo e tutti i nostri contenuti, tra cui guide elettroniche, notizie, suggerimenti e altro ancora.

Hai dimenticato di fornire un indirizzo email.

Questo indirizzo email non sembra essere valido.

Questo indirizzo email è già stato registrato. Accedere prego.

Hai superato il limite massimo di caratteri.

Si prega di fornire un indirizzo e-mail aziendale.

Seleziona la casella se vuoi procedere.

Seleziona la casella se vuoi procedere.

Inviando il mio indirizzo email confermo di aver letto e accettato i Termini di utilizzo e la Dichiarazione di consenso.

Lo standard è stato ratificato nel 2010 come IEEE 802.3ba. È stato inventato da Bob Metcalfe e Dave Boggs allo Xerox PARC nel 1973 e offriva quella che allora era l'enorme velocità di 2,94 Mbps.

Avanti veloce di 40 anni e 1Gbps Ethernet (1GbE) è comune nella LAN, i chip che alimentano le porte Ethernet sono efficienti e quasi gratuiti e 1GbE è abbastanza buono per le esigenze della maggior parte degli utenti.

Nel data center, tuttavia, la storia è diversa. Secondo Cisco, il traffico IP globale dei data center quasi quadruplicherà nei prossimi cinque anni, crescendo a un tasso di crescita annuo composto del 31%.

Ci sono diverse ragioni per questo, ma il ruolo più importante lo gioca l’enorme crescita sia dei volumi che dei tipi di traffico che fluisce attraverso il data center. Man mano che i dati diventano più ricchi e crescono di dimensioni – a causa dell’aumento dei dispositivi mobili sempre attivi, dei desktop aziendali centralizzati o dell’esplosione del cloud computing, per citarne alcuni – si avverte una maggiore pressione sul back-end.

Anche la virtualizzazione ha cambiato profondamente i modelli di dati dei data center. Tradizionalmente, il traffico consisteva in fonti esterne che effettuavano richieste da un server all'interno del data center, seguite dalla risposta del server. Questo modello ha portato a reti a tre livelli, con i livelli di accesso, aggregazione e switch core che sono diventati la topologia di rete predefinita del data center e la densità del traffico è stata più bassa al livello di accesso, diventando maggiore man mano che ci si avvicinava al core.

Tutto questo è cambiato. Il rapporto sull'indice cloud globale di Cisco ha mostrato che il 76% del traffico ora rimane all'interno del data center. Gran parte del traffico ora riguarda la separazione delle funzioni assegnate ai diversi server all'interno della struttura, come applicazioni, archiviazione e database. Questi generano quindi traffico per il backup e la replica e traffico di lettura/scrittura attraverso il data center.

Le tecnologie, come VMware vMotion, spostano le macchine virtuali nel data center. La virtualizzazione dello storage, che tra gli altri attributi fa sì che più array appaiano come un'unica entità, aumenta anche i volumi di trasferimenti automatizzati di grandi quantità di dati all'interno della struttura. L'elaborazione parallela divide quindi le attività in blocchi e li distribuisce.

Le pagine Web odierne sono più complesse delle richieste dall'origine al server e viceversa, comportando accessi ai dati per una singola pagina Web da più posizioni all'interno del data center.

Inoltre, secondo Shaun Walsh, vicepresidente senior del marketing di Emulex, applicazioni come il trading finanziario ad alta velocità, l'analisi e lo smistamento delle transazioni con carte di credito stanno creando molte piccole comunicazioni che rimangono all'interno del rack e necessitano di connettività ad alta velocità.

Le reti dei data center stanno iniziando a modificarsi per adattarsi a questi mutevoli modelli di traffico. Invece di un’architettura progettata per portare il traffico dai server al confine della rete e viceversa – noto come traffico nord-sud – stanno diventando tessuti, con tutti i nodi interconnessi, consentendo una larghezza di banda ad alta velocità per la connettività est-ovest come BENE.

Questi tessuti di rete di data center stanno determinando la necessità di enormi quantità di larghezza di banda aggiuntiva, secondo Clive Longbottom, fondatore della società di analisi Quocirca.

"La necessità di far fronte al crescente traffico est-ovest farà sì che 100GbE sia il modo migliore per gestire la latenza nel data center, a condizione che siano disponibili gli strumenti giusti per garantire che tutto funzioni in modo efficace", afferma.