Oggi la diffusione di dispositivi
IoT, delle tecnologie per il
5G e la crescita massiva nell’
uso di video aumenta esponenzialmente la
disponibilità di dati.Entro il 2023 verranno generati 103 zettabyte di dati in tutto il mondo, come dice l’analista
IDC.
“Un cambiamento che impone di esaminare più in profondità le modalità utilizzate dalle aziende per archiviare questa mole di dati, e ottenerne valore. L’ingresso nell’era dello zettabyte richiede che le aziende ripensino a come progettare i data center per rispondere a questa domanda”, spiega
Davide Villa, Emea Business Development Director di Western Digital.
Davide Villa, Emea Business Development Director di Western DigitalUn nuovo approccio per le architetture di storage Dire
zettabyte significa fare riferimento a un
trilione di gigabyte, ossia a un’
enorme quantità di dati; un concetto ancora poco diffuso rispetto alle più utilizzate misure come ad esempio gigabyte o terabyte, in quanto finora non c’è stata esigenza da parte delle aziende di archiviare una quantità così corposa di informazioni.
Il
punto di svolta però è dietro l’angolo. Sono molteplici i
fattori chiave che determineranno tale passaggio, come spiega Villa. Il primo considera di
disaggregare sistemi di calcolo, di archiviazione e di rete per far leva su ciascun componente nel modo più efficiente e ottimale possibile. La
disaggregazione rappresenta l’unica alternativa per gestire il volume, la velocità e la varietà dei dati che l’era dello zettabyte inevitabilmente genererà.
Storage: dati in crescita e hard disk sempre in testa. I dati IDC indicano una crescita sempre forte della base installata di storage. Con i dischi a piatti rotanti ancora prevalenti sugli SSD.
La seconda considerazione riguarda il fatto che l
’infrastruttura di dati dovrà essere appositamente progettata e costruita. Le aziende non possono più contare su soluzioni generiche, considerate ‘abbastanza buone’ per rispondere a esigenze in diversi ambiti: “
Le organizzazioni hanno bisogno di massimizzare l’efficienza e concentrarsi su un obiettivo, ossia quello di favorire un equilibrio perfetto tra performance, densità di archiviazione e costi”, sottolinea Villa.
Il terzo elemento riguarda la
collaborazione necessaria tra i diversi elementi in pipeline:
“Componenti hardware e software hanno bisogno di interagire in modo intelligente e, per progettare il sistema in modo da ottenere livelli ottimali di performance e funzionalità, è importante averne una visione completa e olistica”, spiega Villa.
Soluzioni di storage SMR appositamente progettate Ricevere stimoli dalle community open source e Linux sulle principali tecnologie
SMR (Shingled Magnetic Recording) è importante per cercare soluzioni che riescano a rispondere nel prossimo decennio ad una rapida crescita di dati e della necessità di gestirli: “
Le soluzioni che utilizzano supporti magnetici per l’archiviazione dei dati, sovrapponendo le diverse tracce registrate su ciascun disco, consentono di superare del 20% la capacità disponibile. Questo presuppone che i dati vengano trascritti in maniera sequenziale così da non alterare gli strati sottostanti”, illustra Villa. Per i grossi data center,
la scrittura sequenziale si adatta a molti sistemi, vista la caratteristica ‘write once/read many’ (scrivo una volta/leggo molte volte) di carichi di lavoro su larga scala come il video streaming. “
La spinta necessaria ad adottare la tecnologia SMR richiede la capacità di ridefinire le architetture a livello di host - modificando il sistema operativo per organizzare le scritture in maniera sequenziale oppure abilitando l’applicazione affinché sia consapevole del modello sequenziale di scrittura”, dice Villa.
Ridefinire le architetture di sistema può richiedere alcuni sforzi nella fase iniziale, ma i benefici che ne derivano in termini di densità e di costi sono molteplici e dimostrano i
vantaggi che si possono ottenere dall’adozione di sistemi appositamente costruiti per fare comunicare componenti hardware e software.
L'archiviazione si fa 'a zone' In genere non si confrontano unità
HDD (hard-disk drive) con quelle
SSD (solid state hard drive) in quanto molto spesso tecnologie distanti fra loro. Tuttavia, se si considerano
le unità SSD e NAND come parte attiva del processo di disaggregazione, si assiste alla comparsa di una
tecnologia complementare a quella SMR/HDD chiamata
ZNS (Zoned Namespaces). I supporti basati su NAND riescono a considerare solo un numero limitato di scritture e, di conseguenza, necessitano di essere gestiti. Tecniche Flash Translation Layer (FTL) intelligenti vengono impiegate per la gestione della memoria cache, dei livelli di performance, fino ai processi di ‘wear-leveling’. Tuttavia,
la gestione a livello di dispositivo su scala zettabyte crea inefficienze tra l’host e la flash con un impatto negativo sulla capacità di trasmissione, sulla latenza e sui costi.
In un’epoca in cui le aziende desiderano mantenere il controllo di tutti questi elementi e al contempo massimizzare l’efficienza, è necessario
spostare l’attenzione da una gestione a livello di dispositivo a una a livello di host, come permettono le tecnologie SMR. “
Le tecniche ZNS suddividono i supporti flash in zone, in cui ciascuna è un namespace isolato. Per esempio, grazie a questa tecnologia, i fornitori di servizi cloud possono separare i carichi di lavoro o le tipologie di dati in zone differenti così che lo schema di utilizzo sia prevedibile tra utenti multipli. E ancora più importante, secondo le tecnologie SMR, i dati vengono trascritti attraverso una zona in maniera sequenziale”, dettaglia Villa. Appare quindi chiaro come
l’adozione di queste tecnologie vada a ridurre la necessità di gestione dei supporti. Tra i b
enefici citati da Villa: ulteriori risparmi per via di una minore esigenza di over-provisioning da parte dei supporti NAND, maggiore durata maggiore dell’unità grazie alla riduzione dell’amplificazione di scrittura; significativa riduzione della latenza; produttività notevolmente migliorata.
Zoned Storage: una piattaforma unificata per supportare tecnologie SMR e ZNS Se da un lato le aziende si stanno preparando a gestire la crescita dei dati, dall’altro sono particolarmente importanti
iniziative come lo Zoned Storage, che lavora con la community di riferimento per
rendere la tecnologia ZNS un open standard che può usare la stessa interfaccia e le API (Application Programming Interface) come SMR. Questo passaggio può consentire agli utenti finali di adottare una singola interfaccia in grado di comunicare con l’intero livello di archiviazione. Di conseguenza, dal momento che le applicazioni non devono cambiare in base all’ambiente di archiviazione scelto,
risulta più semplice la transizione verso architetture di sistema su scala zettabyte per chi progetta i data center.
“L’adozione di sistemi disaggregati, progettati appositamente e architetture di sistema intelligenti permette alle aziende di raggiungere un nuovo equilibrio tra livelli di performance, latenza e costi”, conclude Villa.