Oltre ai server ProLiant Gen 11 e alla gamma storage Alletra, arrivano nuovi servizi storage specifici che ampliano ulteriormente le proposte tramite Greenlake
Autore: Edoardo Bellocchi
Parte dalla continua esplosione della quantità di dati l’analisi di Paolo Delgrosso, Channel Sales Director di HPE Italia, nell’introdurre a metà aprile le ultime novità server e storage di casa Hewlett Packard Enterprise. E quella che a prima vista potrebbe sembrare una constatazione quasi ovvia, lo è molto meno se si considera come le aziende, anche in Italia, siano sempre più alla ricerca di modalità per trarre valore dai dati.
Citando IDC, Paolo Delgrosso racconta infatti che “da qui al 2026 la quantità dei dati sfruttati dalle aziende crescerà di oltre il 100 per cento: in questo raddoppio dei dati, il tema centrale non è solo quello di immagazzinarli e utilizzarli al meglio, facendo uso di ecosistemi basati su API e sull’AI, ma anche quello di acquisire la ‘data maturity’ che serve per trarre il maggior valore possibile dai dati”.
Proprio la data maturity è stata al centro di un’indagine compiuta per HPE su 8.700 persone in 19 Paesi, Italia compresa, che ha mostrato come il nostro Paese sia praticamente in linea con il resto del mondo. Sintetizzando, le aziende sotto i 250 dipendenti devono “compiere ancora molta strada nel percorso verso la data maturity, che identifica la capacità di creare valore dai dati, e se il livello medio dell’intero campione si situa al livello 2,6 su una scala che va da 1 a 5, solo il 3 per cento del campione raggiunge il livello di maturità più elevato”, ha spiegato Delgrosso.
Più nel dettaglio, il sondaggio ha rivelato che il 14% delle organizzazioni si trova al livello di maturità 1 (data anarchy), il 29% al livello 2 (data reporting), il 37% al livello 3 (data insights), il 17% al livello 4 (data centricity) e solo il 3% è al livello 5 (data economics). In Italia si registrano dati simili: data anarchy 13%, data reporting 31%, data insights 34%, data centricity 17% e infine data economics al 4%. Da notare che una delle caratteristiche legate a un livello non elevato di data maturity è che non esiste un'architettura globale di dati e analisi: i dati sono isolati in singole applicazioni o posizioni, nella classica struttura a silos.
“Gestire grandi quantità di dati comporta anche un forte consumo di energia”, prosegue Delgrosso, spiegando che “in HPE abbiamo da tempo deciso di prestare la massima attenzione ai temi della sostenibilità, operando sempre per salvaguardare le risorse e tenendo presente questi temi anche nella progettazione dei nuovi sistemi di computing e di storage”.
È Paola Rigoldi, Compute Solutions BU & Sales Manager di HPE Italia, a entrare nel dettaglio delle nuove soluzioni di computing, in cui “abbiamo anche privilegiato il tema della sostenibilità: estrarre valore dai dati richiede capacità computazionale adeguata, e i nuovi server ProLiant della Gen 11 si caratterizzano per la massima efficienza in termini energetici, e dispongono di tutte le certificazioni, comprese anche quelle previste dal Pnrr, che richiede che nella realizzazione dei progetti non vengano provocati danni all’ambiente”.
I nuovi ProLiant Gen 11 permettono un’esperienza gestionale di tipo cloud based, prosegue Paola Rigoldi, spiegando che il nuovo sistema di gestione dei server HPE Greenlake for Compute Ops Management (COM) “permette di gestire in modo centralizzato l’intero ciclo di vita del server con un’interfaccia intuitiva con cui si possono fare tutte le operazioni, come l’aggiornamento firmware: si può fare da un unico punto anche per i server distribuiti senza che ci sia bisogno di persone IT sul posto”.
COM è integrato su tutti i server HPE ProLiant Gen11 ed è disponibile, in modalità as-a-Service tramite sottoscrizione, anche per tutti i server HPE ProLiant Gen9 e Gen10. La console offre funzionalità facili da utilizzare, unificate e automatizzate per consentire di monitorare la propria infrastruttura attraverso dashboard e insight.Le aziende possono inoltre integrare facilmente migliaia di dispositivi distribuiti e aggiornare rapidamente i firmware riducendo il tempo dedicato alla gestione delle infrastrutture IT, così da concentrarsi nel supporto al business.
Non solo: HPE GreenLake for Compute Ops Management include anche report dettagliati sulla carbon footprint così da consentire ai clienti di monitorare i consumi energetici, sia dei singoli server sia di ambienti di elaborazione completi. In questo modo si ottimizza l’utilizzo dell'energia e le emissioni di anidride carbonica.
Rispetto alla generazione precedente, i nuovi server HPE ProLiant Gen11 hanno il 50% in più di core per il consolidamento dei carichi di lavoro, il doppio della larghezza di banda I/O e il 33% in più di densità GPU per applicazioni di intelligenza artificiale o graphic-intensive. I server HPE ProLiant di nuova generazione sono ottimizzati per offrire prestazioni elevate sui carichi di lavoro a più alta intensità di dati di e supportano un insieme diversificato di architetture, compresi i processori scalabili Intel Xeon di quarta generazione, i processori AMD Epyc di quarta generazione e Ampere Altra.
Da notare che anche i nuovi ProLiant prevedono sia l'acquisto tradizionale sia il modello as-a-service con pagamento in base al consumo con la piattaforma HPE GreenLake, che fornisce oltre 70 servizi cloud che possono essere eseguiti on-premise, all'edge, in una struttura di colocation o nel cloud pubblico. Inoltre, tramite HPE Financial Services (HPEFS), i clienti possono convertire le risorse tecnologiche esistenti in capitale per acquistare nuova tecnologia.
Spetta infine a Fabio Tognon, Data Services Director di HPE Italia, raccontare nel dettaglio la nuova generazione di storage HPE Alletra e l’evoluzione degli HPE GreenLake Cloud Services: “si parla di storage ma anche di servizi, perché in effetti oggi illustriamo gli annunci di servizi che sono abilitati da nuove tecnologie storage, in coerenza con quello che il nostro Ceo Antonio Neri aveva detto poco più di tre anni fa, quando aveva parlata di strategia sempre più rivolta a far diventare HPE una realtà basata sui servizi”.
Quando a suo tempo in HPE si era parlato di “Composable Infrastructure”, prosegue Tognon, “si andava ad affrontare la richiesta di avere un data center ‘fluido’ che gestisca al meglio tutte le esigenze dei carichi di lavoro relativi ai dati, che sono come abbiamo visto sempre in crescita esponenziale, ed è anche per questo che le soglie di ingresso dei nuovi sistemi storage che proponiamo potrebbero a prima vista sembrare un po’ alte, ma oggi raccogliere dati per trarne valore significa lavorare su grandi quantità, in modo da avere insight sempre più accurati, proprio per massimizzare ciò che si può fare con i dati”.
Ma non è solo un tema di capacità, ed ecco che la nuova proposta di HPE si preoccupa anche di abbattere i silos che continuano a persistere in azienda, dovuti anche alle diverse architetture utilizzate, che siano file storage, block storage o altro. Arrivano infatti due nuove soluzioni per file e blocchi, disponibili attraverso HPE GreenLake, basate su un'architettura flessibile attraverso HPE Alletra Storage MultiProtocol, che supporta un'infrastruttura disaggregata con più protocolli di storage sullo stesso hardware scalabile indipendentemente per prestazioni e capacità. Le aziende beneficiano di un'unica piattaforma cloud unificata per distribuire, gestire e orchestrare i dati e i servizi di storage, indipendentemente dal carico di lavoro e dal protocollo di storage.
Nel dettaglio, la prima soluzione, HPE GreenLake for File Storage, offre un servizio scale-out per accelerare l'elaborazione di carichi di lavoro ad alta intensità di dati attraverso prestazioni enterprise su vasta scala, con un throughput di centinaia di gigabyte al secondo. Il nuovo servizio di archiviazione file riunisce l'esperienza cloud di GreenLake e il software Vast Data per creare un servizio di file altamente resiliente progettato per la scalabilità di exabyte.
La seconda soluzione, HPE GreenLake for Block Storage, si evolve per garantire la disponibilità, le prestazioni e la scalabilità dello storage mission-critical a un prezzo accessibile: si tratta del primo storage a blocchi disaggregato e scale-out con una garanzia di disponibilità dei dati del 100%, che offre un ottimo rapporto prezzo-prestazioni, garantendo la stessa architettura always-on e always-fast progettata per aiutare i clienti a soddisfare gli SLA per le applicazioni mission-critical e i carichi di lavoro misti.
A queste due soluzioni si aggiunge HPE GreenLake for Disaster Recovery, che riduce la perdita di dati e i tempi di inattività grazie alla protezione continua dei dati nella piattaforma SaaS globale e scalabile di HPE con fatturazione flessibile. Realizzato con la tecnologia Zerto, HPE GreenLake for Disaster Recovery garantisce un ripristino rapido e flessibile in caso di qualsiasi interruzione, attraverso un'unica esperienza unificata, automatizzata e orchestrata su più macchine virtuali. Non solo: è anche previsto HPE GreenLake for Backup and Recovery, che protegge i carichi di lavoro on-premise e in cloud in modo semplice ed efficiente con una gestione unificata e un unico catalogo di dati per workload in cloud privato e pubblico. Offre inoltre un'orchestrazione policy-based, un'efficienza di storage di livello superiore e una fatturazione basata sui consumi, il tutto in una soluzione 100% SaaS.
Dal punto di vista delle tecnologie sottostanti, le novità sono quelle della famiglia HPE Alletra 4000, definita dall’azienda come “la prima proposta server-based all'interno del portfolio di soluzioni di infrastruttura dati cloud-native HPE Alletra”. I nuovi modelli HPE Alletra 4000, annunciati lo scorso febbraio, incarnano la nuova generazione di data storage server, in precedenza nota sotto il brand HPE Apollo 4000, offrendo “una moderna infrastruttura progettata specificamente per rispondere alle richieste di dati in modo sicuro, conveniente e semplice, per soddisfare un ampio range di carichi di lavoro data-centric”, concludono in HPE.