All’Innovative Data Infrastructure Forum lo storage si conferma la più importante tra le componenti infrastrutturali.
Autore: Valerio Mariani
All’ultimo Innovative Data Infrastructure Forum di Huawei il protagonista indiscusso non è stato il dato, bensì la sua elaborazione. Il Forum di Monaco di Baviera è stata l’occasione per fare il punto sul ruolo fondamentale delle infrastrutture di storage all’interno dei moderni sistemi IT. Si è delineata una direzione che guarda a interessanti sviluppi tecnologici che pongono definitivamente lo storage come componente prioritaria dell’infrastruttura, a spese di quella dedicata all’elaborazione.
Nell’intervento di apertura, Jim Lu, President of European Region, Senior Vice President di Huawei pone il doveroso accento sull’impegno della casa cinese in Europa, sottolineando il contributo all’economia europea di ben 12,3 miliardi di euro e il supporto a una forza lavoro complessiva di 140mila unità, secondo uno studio indipendente di Copenaghen Economics. Il presidente ha, inoltre, ricordato al mondo che Huawei è un’azienda che da 23 anni fornisce alle aziende europee infrastrutture IT intelligenti, votate alla semplificazione e sostenibili, per la loro digitalizzazione nonostante tutto, si potrebbe aggiungere.
Investimenti in R&D pari al 25% delle revenue annuali, valore tra i più alti del settore, 3 OpenLabs in Europa, partnership con più di 5mila operatori di cui 100 impegnati nello sviluppo di soluzioni tecnologiche, hanno permesso a Huawei di ricavarsi un ruolo da leader come fornitore di infrastruttura di networking prima e di storage poi, soprattutto nell’Education, nel Retail e nella Logistica, ma anche nella Pubblica Amministrazione locale. Insomma, Huawei in Europa c’è e intende continuare a esserci, nonostante tutto.
A definire le direzioni di sviluppo tecnologico ci pensa Peter Zhou, Vice President di Huawei e President della Huawei IT Product Line, che sviscera le motivazioni del payoff del Forum: New Apps, New Data, New Resilience.
New Apps che il mercato chiede espressamente visto che, secondo i dati Huawei, il 56% delle aziende usa già servizi basati sull’Intelligenza Artificiale e il 96% ha intenzione di investire ulteriormente in applicazioni cloud native.
New Data, ovvero un nuovo modo di gestire i dati, visto che l’80% è non strutturato e che si prevede crescano con un incremento medio annuo del 38%. “Siamo già nell’era dello Yottabyte – dichiara Zhou”, un valore impressionante corrispondente a un milione di miliardi di miliardi o, se vogliamo, un quadrilione di byte. Inoltre, i primi cinque fornitori di sistemi storage basati su controller esterni (ECB) hanno triplicato i valori di exabyte venduti dal 2012, e ci si aspetta che crescano di un fattore di dieci volte entro il 2032, superando i 100 exabyte. E, con il dato cresce il suo costo di gestione e, a questi ritmi di crescita, se non si interviene con le giuste tecnologie, le aziende non saranno in grado di supportarlo.
Infine, New Resilience, ovvero un approccio predittivo che salvi dalle minacce Ransomware e dalla perdita dei dati applicabile direttamente sull'appliance.
È necessario ragionare secondo il principio dell’elaborazione parallela di dati diversificati – sostiene il manager. Per questo sono necessari container di storage affidabili e a elevate prestazioni. Inoltre, è necessaria una tecnologia che migliori l’efficienza nell’accesso in input e in output e ottimizzi la larghezza di banda, soprattutto in contesti di workload particolarmente stressanti. Huawei pensa in particolare la Sanità, di cui presenta referenze di rilievo, ma anche all’Automotive e al Manufacturing. In questi scenari Huawei spinge per l’applicazione del paradigma “data fabric intelligente” presente nell’offerta OceanStor Dorado All-Flash Storage e OceanStor Pacific Scale-Out Storage, già Customer Choice 2023 per Gartner Peer Insights, della divisione Huawei Data Storage.
Il termine All-Flash nel naming è già di per sé una dichiarazione precisa: lo storage oggi è indiscutibilmente flash, almeno quello dei primi due stadi di raccolta (primario e backup) mentre per l’archiviazione “definitiva” c’è spazio per il Blu-Ray, il cloud pubblico e, nel caso, anche al vecchio, caro, intramontabile nastro. Come è ormai ben dimostrato, il paradigma all-flash riduce significativamente la latenza e il transito dei dati tra le infrastrutture distribuite, oltre a garantire più memoria in meno spazio, più sostenibilità visto che il lifecycle del flash è lungo e che si calcola che l’utilizzo di un SSD “salvi” fino a 150 alberi, e una gestione semplificata soprattutto in termini di protezione del dato.
Ma non è tutta nella scelta delle memorie a stato solido l’innovazione di Huawei Storage. La data fabric intelligence, infatti, in quanto intelligente ha bisogno di un cervello, un engine, per l’elaborazione parallela di enormi quantità di dati destrutturati generati dai database distribuiti, dai sistemi HPC, dai rich content e richiesti da nuovi servizi sempre più dipendenti dagli algoritmi di Intelligenza Artificiale.
In concreto, Zhou parla di dimensioni da 10 PB (petabyte) all’anno per le attività di esplorazione in ambito Oil & Gas, 50 PB/anno per un data lake di una grande banca, 100 PB/anno per un sistema di trasporto smart e 300 PB/anno per una fabbrica connessa. Come se ne esce? Con un data acceleration engine. In pratica, con una componente di elaborazione integrata nelle appliance di storage più potente degli attuali controller con obiettivi maggiori rispetto alla semplice compressione del dato. In particolare: arrivare a rendere i dispositivi di storage completamente autogestiti entro il 2030.
L’offerta storage Huawei, in particolare, integra un motore di accelerazione per l’elaborazione dei dati provenienti dai database distribuiti, uno per l’accelerazione dei Big Data (destrutturati) e, infine, uno per l’elaborazione dei dati richiesti agli algoritmi di Intelligenza Artificiale che lavorano su strutture fisiche separate (silos) dei dati in hot, warm e cold data. Come detto, non basta più richiedere alle engine la sola compressione del dato, ma serve una gestione intelligente delle performance e della capacità delle appliance, oltre a una maggiore protezione del dato, tutto in ottica predittiva.
Risultati ottenuti da questo tipo di architettura già presente nell’offerta OceanStor di Huawei? Per esempio, un 30% garantito di risparmio sul TCO nella gestione dei Big Data o, se si preferisce, un incremento generale delle performance del 30%. In particolare, la E2E (end-to-end) data acceleration di Huawei promette di accelerare le performance relative all’accesso ai dati del 20%, mentre la lettura della cache si velocizza del 50% e la latenza scende del 60% nei processi OLTP (online transaction process). E, infine, l’ultima promessa riguarda il recovery, passato da 2 ore a 10 minuti.