Per anni, nei data center abbiamo visto una combinazione di
sovracapacità e sottoutilizzo. Fino a poco tempo fa, non era raro visitare un sito progettato per un carico di 10 MVA che ne utilizzava magari 2. Ancora più comune era vedere l’utilizzo di server al di sotto del 10% e questo non solo su piccole applicazioni, ma anche su sistemi complessi.
I nostri team con grande expertise in efficientamento energetico e ottimizzazione hanno passato anni a cercare di convincere i clienti a
effettuare il giusto dimensionamento fin dal primo giorno di attivazione di un nuovo data center, implementando strategie di crescita modulare e garantendo che l’infrastruttura a supporto - come l’alimentazione e il raffreddamento - corrispondesse strettamente alla domanda di calcolo necessaria. Nonostante questo, spesso il requisito delle apparecchiature IT è stato
ampiamente sovrastimato, lasciando un divario tra le aspettative di progettazione e la realtà delle implementazioni.
Con l’evoluzione del tradizionale data center, l’utilizzo di un singolo server o processore dedicato a un’unica applicazione non è più attuale. Il passaggio a piattaforme software ha significato un
crescente utilizzo delle virtual machine e dei sistemi grid-style.
Cristina Rebolini, Sales Director Commercial, Industrial and Enterprise di Vertiv Italia
Non guardare solo al ‘picco’
Uno dei motivi principali per cui si vedeva questo anomalo sottoutilizzo del carico era dato dal fatto che i sistemi erano stati progettati e realizzati per
supportare il cosiddetto ‘picco’ di esigenza, ossia il momento nel quale l’infrastruttura dovesse dare la massima capacità disponibile. Anche la ridondanza, correttamente, veniva garantita, ma magari non ottimizzata.
Un esempio immediato:
l’e-commerce, molto probabilmente prendeva in considerazione solo grandi eventi di vendita come il Black Friday o il Cyber Monday, dove le imprese fornitrici hanno pianificato il carico in previsione del picco anche se, mediamente, operavano
ben lontani da quei livelli. Questo scenario di sovracapacità/sottoutilizzo può anche essere paragonato a un’auto. La maggior parte delle automobili è progettata per andare a oltre 190 chilometri all’ora, ma raramente supera i 130 e per gran parte della vita utile viaggia a meno di 65.
Oggi i proprietari dei data center di grandi dimensioni, i cosiddetti hyperscaler, gestiscono essenzialmente - per restare nella metafora - parchi di autocarri con prestazioni da supercar.
Sono gestiti al 100% da software. Utilizzano una piattaforma hardware quasi identica, una per l'elaborazione e una per l'archiviazione, in ogni data center che possiedono. Questo significa decine di migliaia di dispositivi di archiviazione e processori connessi alla rete che funzionano in modo efficace come se fossero uno solo dispositivo. La perdita di un singolo sito causa solo un calo delle prestazioni, non una perdita del servizio.
Ad esempio, sapevate che quando si esegue una ricerca di Google, il nostro dispositivo invia tale richiesta a tre diversi data center situati in diverse aree geografiche?
Il data center più veloce offre il risultato. Le reti che utilizziamo per trasmettere tutti questi dati sono le stesse, ma con una capacità sempre più efficacemente integrata dal primo giorno e poi in seguito, in funzione della necessità specifica. Far passare cavi nel terreno e sotto il mare è molto costoso, per questo i provider di rete di solito pianificano i percorsi
almeno per i successivi 10 anni. Man mano che la domanda cresce, i provider devono semplicemente “attivare” una connessione in fibra inutilizzata per aggiungere enormi quantità di capacità istantanea.
Ottimizzare, in maniera mirata
In sostanza, le piattaforme software, i data center che le supportano e le reti che connettono tutto questo sono progettati per offrire livelli di capacità molto elevati con livelli ancora più elevati di ridondanza. Le richieste a cui stiamo assistendo ora, con professionisti e studenti che lavorano da casa,
sono senza precedenti, ma forse non in termini di capacità di picco totale. Facendo un paragone musicale, se gli altoparlanti nei concerti dei gruppi rock "sforano" spesso il massimo e arrivano metaforicamente al 110% della loro potenza, la rete globale di data center è arrivata solo al 90%. Questo livello di capacità non è insolito. Lo è sostenerlo per un periodo di tempo così prolungato.
In un recente annuncio stampa, il direttore dei sistemi informativi di BT ha dichiarato che la rete britannica, sebbene estremamente utilizzata, non è vicina alla capacità massima. Il picco di traffico di solito avveniva la domenica sera e durava alcune ore.
Ora, il picco è costante e più alto che mai. Naturalmente ci sono alcuni colli di bottiglia, la necessità di regolare determinati servizi e alcune persone alla periferia delle reti sperimenteranno prestazioni deludenti. Fortunatamente, ciò non è indicativo dello stato di salute dell’ecosistema nel suo complesso.
L’intero ecosistema
è abbastanza flessibile da poter fare anche più di quanto non gli viene ora richiesto. So per esperienza personale che ognuno sta esaminando molto da vicino i colli di bottiglia e sta lavorando per risolverli rapidamente. La maggior parte di questa espansione necessaria, consiste nel mettere online le apparecchiature esistenti o ridestinare l’hardware ridondante.
Dove è richiesta una nuova capacità, questa
viene fornita in pochi giorni. A causa dell’evoluzione sopraindicata delle strutture aziendali, è disponibile fin da subito un’enorme quantità di spazio nei data center. Da quello che vedo, il nostro settore è stato messo a dura prova, ma si è guadagnato un bel 10 e lode.
Cristina Rebolini è Sales Director Commercial, Industrial and Enterprise di Vertiv Italia