▾ G11 Media: | ChannelCity | ImpresaCity | SecurityOpenLab | Italian Channel Awards | Italian Project Awards | Italian Security Awards | ...

Come cresce lo Unified Data Storage di NetApp

Nuovi sistemi hardware e il continuo miglioramento di Ontap mirano ad allineare lo storage con le attuali esigenze delle imprese, con AI e cloud in prima fila

Trasformazione Digitale

Assemblare liberamente una infrastruttura di storage indipendentemente da dove sono i dati (on-premise, in cloud...) o dal tipo di storage (a oggetti, a blocchi...), in maniera eterogenea ma anche trasparente e con una gestione integrata. Sembra la metafora dei mattoncini Lego applicata allo storage, in casa NetApp è un approccio concreto - lo Unified Data Storage - che viene regolarmente "rinfrescato" con annunci che lo ampliano e lo modernizzano. Cercando anche - ed è un elemento importante per mercati come l'Italia - di estenderlo con prodotti adatti alle imprese di ogni dimensione.

In questo senso, molte aziende italiane che devono modernizzare il loro storage possono ora considerare anche le nuove unità ASA-C presentate all'evento Insight, unità che sono idealmente "figlie" dei sistemi ASA-A lanciati lo scorso maggio. Come questi, i nuovi ASA-C sono soluzioni di storage a blocchi, ma a differenza dei modelli precedenti puntano al miglior rapporto prezzo/prestazioni e non alle massime performance. Volendo fare un parallelo con altre linee di prodotto NetApp, nel mondo a blocchi la linea ASA-C sta alla ASA-A come, nello storage unificato, la linea AFF-C sta alla AFF-A.

Il mercato per le unità ASA-C non dovrebbe mancare. "È una soluzione - spiega Roberto Patano, Sr. Mgr. Systems Engineering di NetApp Italia - che per costi, performance e sostenibilità avrà sicuramente successo nel comparto delle SAN per le PMI. Stimiamo che il 70% circa del mercato italiano sia fatto di SAN e che il 40% sia ancora non all-flash. Ci sono cioè ancora molti clienti che hanno bisogno di soluzioni più convenienti per fare il passaggio al mondo flash".

Fonte: NetApp

E attenzione a non considerare riduttivo il richiamo alle esigenze di storage delle imprese anche di dimensioni medie e piccole. "Le complessità del data management non sono sempre proporzionali alle dimensioni delle imprese", ricorda Davide Marini, Country Manager Italy di NetApp: "tutti i clienti che malvolentieri dovevano rimanere su una tecnologia ibrida per questione di costi possono recepire il valore di queste nuove soluzioni".

Le applicazioni che NetApp considera ideali per i nuovi sistemi ASA-C comprendono i database business critical e operativi, gli ambienti di virtualizzazione VMware, backup e Disaster Recovery, i workload a blocchi che non richiedono una latenza inferiore al millisecondo. La linea al momento comprende tre modelli (C250, C400, C800: si parte da 122 TB) che gestiscono gli stessi protocolli e possono essere associati in configurazioni da alta disponibilità active-active o in cluster sino a 88 PB di capacità.

Più integrazione cloud

Lo Unified Data Storage di NetApp necessita di un collante che connetta i suoi "mattoncini": è tradizionalmente il sistema operativo Ontap, che muove tutti i prodotti di NetApp e svincola la parte software da quella hardware. Lo sviluppo del modello unificato deriva anche dal progressivo potenziamento di Ontap, che acquista regolarmente qualche funzione.

Tra i ben 88 miglioramenti di Ontap 9.14.1 di recente presentati a NetApp Insight spiccano in particolare le funzioni relative all'integrazione tra storage e cloud (per la Google Cloud Platform, AWS, Azure, i servizi cloud "first party" di NetApp) e per l'ottimizzazione - operativa e dei costi - degli ambienti Kubernetes.

Davide Marini, Country Manager Italy di NetApp

Tutte funzioni allineate con una visione più matura e meno semplicistica del cloud da parte delle imprese. "Il problema dei costi dello spostamento dei dati comincia a sentirsi - spiega Roberto Patano - e vediamo una maggiore capacità di analisi da parte delle imprese. Anche le più entusiaste stanno valutando cosa riportare on-premise e cosa lasciare in cloud, anche perché sta maturando la capacità di sviluppo in casa dei microservizi".

In un panorama applicativo sempre in cambiamento, l'idea di NetApp per supportare gli utenti è di andare nella direzione dei data service. "La nostra priorità - spiega Davide Marini - è lasciare ai clienti la possibilità di definire le loro strategie dei dati come credono e per tutti i possibili cambiamenti futuri. Grazie al plus di Ontap i clienti possono modificare la loro strategia facilmente e rapidamente, anche con un approccio più consapevole verso il cloud".

Tra sicurezza e AI

Difficile parlare oggi di gestione dei dati senza parlare anche di sicurezza - serve a poco conservare i dati ma proteggerli male, o affatto - e di Intelligenza Artificiale, ai cui algoritmi sempre più spesso sono dati in pasto i dati gestiti in azienda.

Lato sicurezza NetApp punta nettamente sulle sue "assicurazioni" per la protezione dei dati, come la Ransomware Recovery Guarantee estesa per tutti i sistemi AFF, ASA e FAS. Tra le altre novità principali debutta la Ransomware Recovery Assurance, un nuovo servizio con un prezzo target inferiore ai 10 mila dollari, e arrivano in versione preliminare BlueXP Disaster Recovery, per il DR dei workload VMware verso altri ambienti Ontap on-premise o su cloud VMware o AWS, e SnapMirror, una replica sincrona dei dati di un sistema su un mirror in configurazione active-active.

In ambito Intelligenza Artificiale, NetApp prosegue sulla strada di sviluppare un ecosistema di servizi e applicazioni il più integrato possibile per la gestione dei dati in ambienti di addestramento degli algoritmi di AI. È una evoluzione che l'azienda sta seguendo da circa cinque anni, dopo le prime collaborazioni con Nvidia. La novità recente è l'integrazione dei sistemi AFF C-Series con le componenti software dedicate all'AI e con i DGX BasePOD di Nvidia, per realizzare un sistema integrato e certificato per la gestione di workload "leggeri" di machine learning.

Altre novità funzionali riguardano l'immancabile AI generativa. Ora è in particolare possibile collegare gli storage array on-premise con il servizio Vertex AI di Google Cloud, per passargli cloni dei dati conservati in locale. È anche possibile realizzare pipeline di dati da e verso alcuni servizi di AWS (Sagemaker, Bedrock, Kafka) che possono abilitare applicazioni di AI generativa.

Se questo articolo ti è piaciuto e vuoi rimanere sempre informato con le notizie di ImpresaCity.it iscriviti alla nostra Newsletter gratuita.

Notizie correlate

Speciali Tutti gli speciali

Reportage

Red Hat Summit Connect 2024

Reportage

WPC 2024

Speciale

Speciale Data Center

Speciale

Speciale Hybrid Working

Reportage

Cybertech Europe 2024

Calendario Tutto

Gen 23
Nutanix Cloud Day Roadshow - Bari

Magazine Tutti i numeri

ImpresaCity Magazine


Leggi il Magazine

Iscriviti alla nostra newsletter

Soluzioni B2B per il Mercato delle Imprese e per la Pubblica Amministrazione

Iscriviti alla newsletter