Dal NetApp Insight 2024 arrivano diverse novità di prodotto. E soprattutto una visione prospettica di come dev'essere lo storage nell'era della AI
Autore: f.p.
Se da anni si sottolinea che i dati sono una risorsa preziosissima per le imprese - e il rilancio dell'AI ha rafforzato decisamente questa constatazione - è un po' curioso che molte aziende ancora sottovalutino il ruolo del "luogo" dove i loro dati risiedono, ossia lo storage. Eppure, tutta la storia dell'IT mostra come portare sempre più funzioni sempre più vicino al "ferro" (anche, non solo) sia concretamente vantaggioso.
NetApp sta seguendo questa strada già da qualche tempo, in una strategia di sviluppo tecnologico che la vede, da un lato, portare vicino all'hardware - ossia nel sistema operativo di base, Ontap - sempre più funzioni che normalmente sono associate ai livelli del software più strettamente applicativo. E, dall'altro lato, la vede potenziare gli strati software superiori - ad esempio le console di management - con funzioni che invece nascondono la complessità delle architetture sottostanti. A tutto vantaggio della semplicità di gestione delle infrastrutture storage, per quanto articolate.
Anche le novità principali del NetApp Insight 2024 sono andate in questa direzione, distribuendosi su più lati dell'offerta nella logica che - come spiega Davide Marini, Country Manager Italia NetApp - "serve più innovazione per rispondere sia all'aumento della quantità e del valore dei dati in azienda, sia al crescere nella complessità delle esigenze dei clienti". Questi "devono essere supportati dalle corrette tecnologie e dalle giuste competenze", prosegue Marini, in modo da potersi concentrare prevalentemente sullo sviluppo interno di strategie e approcci data-driven, e meno sull'operatività nella gestione dei dati.
La parola chiave dello sviluppo NetApp resta quindi, in primis, semplificazione - "la tecnologia ci dà sempre maggior valore ma richiede più tempo se non viene semplificata", sottolinea Marini - e la si declina sotto molti diversi punti di vista.
Da quello hardware, la novità principale è rappresentata dalla linea di unità all-flash ASA-A Series, che cerca di soddisfare le esigenze di chi vuole modernizzare il suo parco storage con soluzioni performanti ma non per questo, come spesso capita, complesse da implementare e gestire. Si tratta infatti di unità (al lancio tre: ASA A70, A90, A1K) con prestazioni anche doppie rispetto ai sistemi ASA precendenti e con una latenza che può stabilmente rimanere sotto il millisecondo. Sono però, secondo NetApp, anche semplici da configurare e mettere in opera: basta giusto qualche minuto per averle attive in una SAN.
Con il lancio dei nuovi sistemi, NetApp ritiene ora di coprire un po' tutte le esigenze di storage delle imprese. Chi cerca le massime performance ha a disposizione le linee AFF-A e ASA-A, chi punta alla capacità ha le linee AFF-C e ASA-C, chi vuole sistemi ibridi ha le unità FAS (la linea è stata tra l'altro aggiornata con i modelli FAS70 e FAS90). L'elemento comune è il sistema operativo Ontap, che garantisce a tutte le unità le stesse funzioni.
Proprio le funzioni di Ontap si stanno man mano arricchendo per ampliare le possibilità offerte nativamente dallo storage NetApp. Un ambito chiave in questo sviluppo è la cybersecurity: dopo l'annuncio di qualche tempo fa, e poi una fase di test presso clienti ed enti terzi di certificazione, è stata resa disponibile a tutti, e anche potenziata, la funzione di Autonomous Ransomware Protecion. Basata sulle rilevazioni di un motore di machine learning, questa in sintesi attiva automaticamente la creazione di uno snapshot immutabile "protettivo" non appena rileva operazioni pericolose sui dati, come ad esempio una cifratura massiva.
A un livello più alto - è un servizio, non una funzione del sistema operativo - agisce ora BlueXP Ransomware Protection. Come indica la denominazione, fa parte della console di gestione BlueXP e rileva attacchi cyber in corso sui dati individuando comportamenti sospetti degli utenti, ossia comportamenti che si discostano dalla "baseline" rilevata nel tempo grazie al machine learning. Questi alert di sicurezza affiancano la Autonomous Ransomware Protecion di Ontap e possono essere passati alle piattaforme più specifiche di cybersecurity.
In questi sviluppi il principio - spiega Roberto Patano, Senior Manager Systems Engineering di NetApp Italia - "è che lo storage costituisca una sorta di ultima linea di difesa, essendo il componente che custodisce effettivamente i dati" a cui i malintenzionati puntano. Se un attacco cyber raggiunge lo storage vuol dire che ha superato tutte le altre difese, quindi è lo storage in sé che deve essere in grado di proteggersi.
Il tema della cosiddetta data-centered security, in cui le funzioni di protezione sono portate il più possibile vicino ai dati, è però spinto anche dai player tradizionali della sicurezza informatica. Quindi può esserci una potenziale sovrapposizione tra quello che fa NetApp - che peraltro non vuole diventare una software house di cybersecurity - e ciò che fanno altri vendor.
Ma una distinzione c'è - sottolinea Patano - ed è implicita: "Le aziende utenti molto strutturate hanno già risorse e competenze estese di cybersecurity, quindi possono non essere interessate alle funzioni di sicurezza di BlueXP. Per le medie imprese è diverso: spesso non hanno in casa risorse e skill sufficienti, quindi per loro la possibilità di delegare una parte della cybersecurity è una opzione interessante".
Detto che dal NetApp Insight 2024 sono scaturite diverse altre novità funzionali per BlueXP e per i servizi che i principali hyperscaler offrono sulla base della versione cloud di Ontap, lo sviluppo più interessante a cui NetApp sta lavorando non si traduce in un annuncio di prodotto ma in una visione prospettica: quello che lo storage deve diventare se si vogliono davvero realizzare applicazioni e piattaforme performanti di Intelligenza Artificiale.
È banale sottolineare che l'AI è tanto più performante quanti più dati gli si possono dare in pasto, e più velocemente, ma non è affatto banale concludere, da questo, che per avere il massimo dall'AI - tecnologicamente parlando - serve riprogettare le architetture di storage che i dati li gestiscono. Cambiando il modo in cui lo storage "parla" con le componenti di AI e portando parte delle future funzioni di AI a bordo dello storage stesso.
NetApp sta lavorando proprio a questa riprogettazione, partendo dal presupposto che per il futuro dell'AI servano tre elementi chiave: una infrastruttura di storage ripensata, un data engine ottimizzato per l'AI e integrato direttamente nello storage, una collezione di "intelligent data service" specifici per l'AI.
Gli "intelligent data service" servono a risolvere un problema storico: come si fa a portare ai motori e alle applicazioni di AI quantità massive di dati nel minore tempo possibile. La risposta di NetApp è concentrarsi sui metadati e non sui dati: questo da un lato riduce drasticamente il volume dei bit da spostare e, dall'altro, basta a soddisfare le esigenze di molti servizi e applicazioni "da AI".
Per fare una cosa del genere serve però potersi basare su quello che tecnicamente è definito come un namespace globale per i metadati. Crearlo a livello software - figurativamente, "sopra" lo storage - ha sempre costituito una grossa sfida con cui si sono scontrati (malamente) in molti. NetApp punta a risolvere il problema spostandolo a livello più basso, con un data engine che costantemente rilevi come vengono modificati i dati distribuiti - la funzione per farlo, Snapdiff, esiste da sempre nello storage NetApp - e "comunichi" queste modifiche a vari altri componenti di una supply chain software che culmina, in estrema sintesi, in un databse vettoriale di metadati accessibile in maniera aperta via API.
Questo data engine pensato per l'AI è realizzabile, secondo NetApp, se ad un livello architetturale sottostante si cambia il modo in cui i controller accedono fisicamente allo storage e alle informazioni che questo contiene. L'idea è quella disaggregare completamente lo storage, facendo in modo che tutte le unità siano accessibili da tutti i controller. Un nuovo modo di operare che va implementato a livello di sistema operativo.
Quindi, nella visione prospettica di NetApp anche Ontap si modifica e si evolve. Di fatto sdoppiandosi in un "Ontap Data" che fa da data engine per l'AI e che opera accanto al classico "Ontap Storage" che si occupa, in modo parzialmente nuovo, di quello che Ontap ha fatto sinora. Sono queste due anime del futuro Ontap che uniscono in modo concreto lo storage tradizionale allo storage per l'AI.
Lo storage disaggregato è l'obiettivo che NetApp si è data da raggiungere per primo e non dovrebbe volerci molto. Tutto il resto verrà poi, in un lasso di tempo che l'azienda non indica ma che è comunque stimato in meno di cinque anni. Probabilmente molto meno: difficilmente società come NetApp descrivono al pubblico - e quindi anche ai concorrenti - novità così importanti senza poterle concretizzare a medio termine.